Sempre fui um apaixonado por temas de ficção científica, e entre estes a IA, ou Inteligência Artificial, é algo que sempre fiz questão de aprofundar em livros, documentários e filmes.
Dos principais livros, e aqueles que realmente me levaram às minhas conclusões e receios de hoje, destaco Superinteligência: Caminhos, Perigos, Estratégias, de Nick Bostrom; Vida 3.0: Ser Humano na Era da Inteligência Artificial, de Max Tegmark; A Singularidade Está Perto: Quando os Humanos Transcendem a Biologia, de Ray Kurzweil; e A Nossa Invenção Final: A Inteligência Artificial e o Fim da Era Humana, de James Barrat.
Mas comecemos por perceber o que é a Inteligência Artificial (IA)?
A inteligência artificial (IA) refere-se à simulação da inteligência humana em máquinas que são programadas para pensar como humanos e imitar as suas acções. O termo também pode ser aplicado a qualquer máquina que apresente características associadas a uma mente humana, tais como a aprendizagem e a resolução de problemas.
A característica ideal da inteligência artificial é a sua capacidade de racionalizar e tomar acções que tenham a melhor hipótese de atingir um objectivo específico. Um subconjunto da inteligência artificial é a aprendizagem de máquinas, que se refere ao conceito de que os programas de computador podem aprender automaticamente com e adaptar-se a novos dados sem a ajuda dos humanos. Técnicas de aprendizagem profunda permitem esta aprendizagem automática através da absorção de enormes quantidades de dados não estruturados, tais como texto, imagens ou vídeo.
Muitas das apps que usamos nos nossos smartphones são já baseadas em IA, como por exemplo a tradução automática em incontáveis idiomas, a passagem de texto para voz e vice-versa, a identificação imediata de um local com base numa fotografia, etc.
Mas a IA vai muito além das apps, hoje em dia os algoritmos das redes sociais já são programados com IA, tal como os anúncios publicitários inteligentes, diagnóstico e tratamento de várias patologias na saúde, a segurança e vigilância, os carros e casas inteligentes, o streaming de música e vídeo, as blockchains para as cripto-moedas, e vários serviços financeiros.
Podia estar aqui a dissertar durante milhares de caracteres sobre as inúmeras aplicações possíveis da IA, comparar o deep learning com o machine learning, controlo biométrico ou até mesmo da rede neural profunda. Mas neste artigo vou abordar a ética e os riscos inerentes a um descontrolo na sua aplicação. Porque esta é a questão de fundo que poderá traçar o futuro da humanidade: uma evolução tecnológica positiva ou o perigo de virmos a ser dominados e “engolidos” pela IA?
Sigo Elon Musk no Twitter e no Youtube há muito tempo e as suas publicações e declarações em entrevistas sobre os perigos da IA levaram-me a ir ainda mais a fundo nesta temática
Elon, numa entrevista, declarou: “`À medida que a IA se tornar muito mais inteligente do que os humanos, o rácio relativo de inteligência será provavelmente semelhante ao que existe entre uma pessoa e um gato, talvez maior“. Referiu ainda: “Penso que precisamos de ter muito cuidado com o avanço da IA!”.
“Os robôs serão capazes de fazer tudo melhor do que nós“, disse Musk durante uma das suas intervenções. “Tenho acesso à IA mais avançada, e penso que as pessoas deveriam estar realmente preocupadas com ela“.
A sua preocupação, porém, não é estranha. Com o machine learning, não se pode ensinar um carro a conduzir sozinho, a identificar condições invulgares que chegam intuitivamente aos humanos, como profetizar o movimento de um motociclista, detectar um saco de plástico que acompanha a brisa numa estrada congestionada. Situações como estas são complicadas de ensinar a um robô, diz Musk.
Podemos por isso estar a caminhar para um erro significativo ao implementar sistemas robustos de IA que podem resultar em condições muito perigosas para a humanidade.
Segundo Elon, adoptar a IA de forma não controlada é como “Invocar o Demónio“. Ele acredita que a inteligência artificial pode evocar a próxima guerra mundial e resultar no seu domínio do mundo, e que a liderança robótica é uma ameaça para ser encarada a sério. Adverte-nos também que o mundo nunca conseguirá escapar quando essas Inteligentes IA’s se tornarem autoritários imortais.
Numa das suas declarações que mais me impressionou falava que “precisamos de ser supercuidadosos com a IA, pois são potencialmente mais perigosos do que as armas nucleares“.
Tal como Elon várias vezes advertiu, a IA tornar-se-á rapidamente tão ou mais inteligente que os humanos e, uma vez que chegue a esse patamar, a existência da humanidade estará em jogo.
Entendendo que a evolução tecnológica irá prosseguir inevitável e agilmente, chegaremos ao ponto em que a IA será muito mais inteligente do que os humanos. Elon Musk prevê que o período de tempo para isso acontecer não será superior a 5 anos, altura em que a IA tomará conta do mundo e as coisas poderão ficar muito estranhas e instáveis.
Sendo um verdadeiro risco existencial para a humanidade, não podemos encarar este problema de ânimo leve. Devem ser tomadas medidas globais e governamentais preventivas e proactivas antes que seja demasiado tarde.
Parece ser, assim, crucial, que se desenvolvam sistemas de controlo e ética enérgicos na regulação em vez de apenas reactivos quando tudo termina. Tem de existir uma escrupulosa regulamentação e estrutura de controlo.
A humanidade deve prestar muita atenção a este dilema, temos de incentivar a criação de painéis de discussão sobre a IA, os seus riscos e ameaças, e não apenas dissertações sobre as suas oportunidades e desafios, como tem acontecido invariavelmente por todo o lado.
A inovação tecnológica é algo de incontornável e que devemos sempre abraçar, mas as tecnologias devem ser desenvolvidas de forma responsável e com a visão e supervisão adequadas. E enquanto cidadãos responsáveis, profissionais de valor humano, todos nós devemos incentivar e contribuir para essa discussão.
Artigo de Opinião para CRH
Luanda, maio de 2022
Carlos PIN Vaz