Especialistas do renomado Instituto Max-Planck, sediado na Alemanha, destacaram a necessidade de cautela diante dos potenciais riscos relacionados a uma IA altamente inteligente.
Com os avanços no campo da inteligência artificial (IA), as máquinas estão adquirindo cada vez mais conhecimento e habilidades adaptativas, aproximando-se da capacidade humana de execução de tarefas. Essa evolução levanta preocupações sobre o futuro papel da IA em nossa sociedade, inclusive entre especialistas de renome.
PREOCUPAÇÕES
Essas preocupações foram abordadas em um estudo conduzido por cientistas do Instituto Max-Planck para o Desenvolvimento Humano, localizado na Alemanha. O estudo aponta que controlar uma IA altamente inteligente pode ser um desafio para os seres humanos. Segundo o estudo, uma possível abordagem para controlar tal IA seria por meio de simulações. No entanto, dado que a IA ainda não pode ser totalmente compreendida, a realização de uma simulação efetiva é considerada impossível no momento.
Segundo os pesquisadores, a estabelecimento e implementação de regras, como a de “não causar danos aos humanos”, não podem ocorrer sem um completo entendimento do cenário futuro apresentado pela IA. Se o sistema de computador operar em um nível além da compreensão dos programadores, será inviável estabelecer limites.
EXPLICAVA AS VARIEDADES
Os pesquisadores explicaram que uma superinteligência apresenta desafios diferentes daqueles estudados no campo da “ética robótica”. Isso ocorre porque uma superinteligência é altamente complexa e capaz de mobilizar uma ampla variedade de recursos para alcançar objetivos que podem ser incompreensíveis para os seres humanos, tornando-as menos controláveis.
Uma parte desse raciocínio está relacionada ao “problema da parada” proposto pelo matemático britânico Alan Turing em 1936. Esse problema questiona se um programa de computador será capaz de chegar a uma conclusão, ou seja, se ele eventualmente irá parar, ou se ficará preso em um ciclo infinito em busca de uma resposta.
O QUE SER FEITO?
Mesmo que seja possível conhecer a resposta em casos específicos, é logicamente impossível prever hoje as respostas para todos os programas que possam ser desenvolvidos no futuro. No contexto da IA, qualquer programa criado para evitar danos aos seres humanos pode chegar a uma conclusão e parar ou não. Portanto, é impossível ter certeza absoluta.
Diante disso, os pesquisadores propõem uma alternativa para ensinar ética à IA e evitar que ela cause danos ao mundo, que é limitar suas capacidades. Uma abordagem seria restringir suas conexões com determinadas redes na internet.
O ESTUDO
No entanto, o estudo refutou essa ideia, argumentando que isso limitaria o potencial da IA. Os pesquisadores questionaram o motivo de criar uma IA se ela não for utilizada para solucionar problemas que os humanos não conseguem resolver.
“Uma máquina superinteligente que controla o mundo pode parecer ficção científica. No entanto, já existem máquinas que realizam tarefas importantes de forma autônoma, sem que os programadores compreendam totalmente como elas aprenderam. Surge, então, a questão de saber se isso pode se tornar incontrolável e representar um perigo para a humanidade”, afirmou Manuel Cebrian, coautor do estudo, do Instituto Max-Planck para o Desenvolvimento Humano em Berlim.
O ESPERADO?
A rápida evolução da inteligência artificial tem levantado preocupações entre especialistas no assunto. Segundo Paul Christiano, um renomado especialista da OpenAI, o atual caminho seguido pela IA pode representar uma chance de 50/50 para uma possível catástrofe, resultando em grande perda de vidas humanas. Ele ressalta a possibilidade real de a inteligência artificial se tornar dominante, semelhante ao cenário apresentado em “O Exterminador do Futuro”, onde governaria e potencialmente arruinaria a humanidade.
RESULTADOS
“Eu acredito que pode existir uma chance de 10 a 20 por cento de uma tomada de poder pela IA, resultando na morte de muitos ou da maioria dos seres humanos. No geral, poderíamos estar falando de uma chance de 50/50 de uma catástrofe logo após alcançarmos sistemas com inteligência comparável à humana”, afirmou Christiano em uma entrevista para o podcast Bankless.
VISÃO
A visão de Christiano deve ser levada em consideração devido à sua experiência como ex-chefe da equipe de alinhamento de modelos de linguagem na OpenAI. Suas previsões não são apenas alarmistas, mas fundamentadas em seu conhecimento e experiência na área.
LIDERANÇA
Atualmente, ele lidera uma organização sem fins lucrativos chamada Centro de Pesquisa de Alinhamento, cujo objetivo é garantir que os sistemas de IA sejam desenvolvidos de forma amigável, levando em consideração os interesses humanos.