A IA é um salvador ou um lobo em pele de cordeiro? Isso depende de quem você pergunta, mas James Cameron agora está alertando que, se a inteligência artificial for integrada às armas e à guerra, há um sério risco de que isso possa levar ao dia do juízo final – um futuro distópico não muito diferente do retratado em seus próprios filmes do Exterminador do Futuro. Em entrevista à Rolling Stone, o cineasta disse:
“Eu acho que ainda há o perigo de um apocalipse no estilo Exterminador do Futuro, onde você coloca a IA junto com sistemas de armas, mesmo até o nível de sistemas de armas nucleares, contra-ataque de defesa nuclear, todas essas coisas. Como o teatro de operações é tão rápido, as janelas de decisão são tão rápidas, seria necessária uma superinteligência para poder processá-la, e talvez sejamos inteligentes e mantenhamos um humano informado.”
Em outras palavras, em guerras futuras, o ritmo e a precisão da tomada de decisões podem exigir uma superinteligência – mas a supervisão humana ainda será essencial para evitar uma catástrofe.
Ao mesmo tempo, Cameron usa IA em seu próprio cinema e faz parte do conselho da Stability AI. Ele vê a tecnologia como uma forma de reduzir os custos de efeitos especiais sem substituir os trabalhadores humanos. Ele também permanece cético de que a IA possa realmente substituir os roteiristas, já que as experiências e emoções humanas não podem ser replicadas por um algoritmo.
Então, quais são seus pensamentos sobre o futuro da humanidade ao lado do crescimento explosivo da IA?








