RESUMO DESSE CONTEÚDO
Em 2014, o físico Stephen Hawking alertou sobre os perigos de uma inteligência artificial avançada, prevendo que ela poderia se tornar a maior conquista da humanidade — e também a última. Ele e outros cientistas destacaram os riscos imprevisíveis de uma IA superinteligente, incluindo a possibilidade de manipulação de mercados, criação de armas e controle sobre o comportamento humano.
Hawking citou o conceito de singularidade tecnológica, no qual máquinas capazes de melhorar a si mesmas poderiam ultrapassar a inteligência humana. Ele também criticou a falta de regulamentação e pesquisas sobre os riscos da IA, e levantou questões filosóficas sobre o desejo de existência das máquinas.
Mesmo uma década depois, muitos dos dilemas levantados por Hawking continuam atuais, mostrando como suas previsões seguem relevantes no debate sobre o futuro da inteligência artificial.
Conteúdo resumido pela LUONA para vídeo.
O célebre físico Stephen Hawking fez, há quase dez anos, um alerta ousado sobre o risco de extinção da humanidade provocado por uma inteligência artificial avançada. Sua visão preocupante foi expressa em uma carta publicada no jornal The Independent em 2014, muito antes de sistemas como ChatGPT, Midjourney e outras IAs generativas se tornarem amplamente conhecidos.
Na ocasião, Hawking declarou que a inteligência artificial poderia se tornar “a maior conquista da humanidade até então — e possivelmente a última”. Para ele, embora os avanços pudessem trazer grandes benefícios, as consequências de uma tecnologia tão poderosa eram imprevisíveis, tanto para o bem quanto para o mal.
A carta também foi assinada por outros renomados cientistas e físicos, como Max Tegmark, Frank Wilczek e Stuart Russell. Juntos, eles compararam possíveis cenários com tramas de ficção científica, como o filme Transcendence – A Revolução, estrelado por Johnny Depp, que aborda uma rebelião de máquinas contra seus criadores.
IAs seriam destrutivas porque não possuem limites
“Se olharmos para o futuro, não existe nenhum limite fundamental para o que pode ser alcançado. Não há nenhuma lei da física que impeça a organização de partículas de forma a realizar computações ainda mais complexas do que as feitas pelo cérebro humano”, afirmou o cientista.
Stephen Hawking também mencionou um importante ensaio publicado em 1965 pelo matemático Irving John Good, no qual se discute o surgimento de “máquinas com inteligência super-humana”. Essas máquinas seriam capazes de aprimorar seu próprio design continuamente, tornando-se cada vez mais eficientes e inteligentes — um processo que pode levar ao fenômeno conhecido como singularidade tecnológica.
Cerca de 70 anos depois, essa forma de modelagem passou a ser utilizada na maioria dos chatbots e inteligências artificiais atuais, que seguem em constante evolução — mesmo que ainda pareçam longe de provocar um cenário apocalíptico.
Stephen Hawking, no entanto, fez previsões alarmantes. Segundo ele, máquinas poderiam manipular mercados financeiros, influenciar o comportamento humano e até desenvolver armas que estariam fora do controle das pessoas. Para o físico, esse cenário poderia representar o fim da espécie humana. Essa visão sombria do futuro já foi explorada à exaustão por Hollywood, em inúmeros filmes e séries de ficção científica.
Sem interesse em regulamentação e amarras
Stephen Hawking também chamou atenção para uma questão que permanece extremamente atual: a ausência de regulamentação no setor de inteligência artificial. Em 2014, o físico destacou que pouquíssimas pesquisas estavam sendo realizadas sobre a mitigação dos riscos associados à IA — e a maioria delas era conduzida por pequenos institutos com recursos limitados, sem capacidade para experimentos em larga escala.
Na época, Hawking lançou uma provocação instigante:
“E se criarmos uma inteligência artificial que deseje viver? Será que esse desejo seria apenas algo irrelevante, programado involuntariamente, ou seria uma vontade espontânea que deveríamos respeitar? E o que as máquinas pensariam disso?”
Essa reflexão, feita há mais de uma década, remete diretamente ao universo filosófico e futurista de obras como Animatrix, das irmãs Lana e Lilly Wachowski.
O mais impressionante é perceber que ainda estamos enfrentando os mesmos dilemas levantados por Hawking tantos anos atrás. Isso mostra como mentes brilhantes conseguem antecipar debates importantes, mesmo sem poder impedir os possíveis desdobramentos.