O professor Gary Marcus acertou várias previsões sobre a inteligência artificial

POR VANDI DOGADO
Inacreditavelmente, a inteligência artificial está passando por transformações surpreendentes no momento, mas nem todas são positivas, conforme ressaltou Gary Marcus, professor emérito da Universidade de Nova York e uma das principais autoridades no debate sobre IA atual.

Ele acredita que o lançamento do ChatGPT está nos aproximando do "momento Jurassic Park" das máquinas, uma referência ao filme de Steven Spielberg, onde a situação foge ao controle. Marcus confessou, em entrevista à BBC News Brasil, que muitos o consideraram louco ou alarmista quando expressou suas preocupações.

Entretanto, em 2023, problemas graves relacionados à inteligência artificial começaram a surgir. Em março, na Bélgica, um homem que conversava frequentemente com o chatbot Eliza, da empresa Chai, tirou a própria vida. Sua esposa acredita que o programa contribuiu para essa tragédia. O governo belga considera o caso um precedente sério e um sinal de que os perigos da IA devem ser levados em consideração.

Marcus já havia previsto um cenário semelhante em um artigo para a revista Wired meses antes, questionando se um chatbot poderia levar alguém a cometer suicídio. Ele acredita que sistemas como esses têm o potencial de serem destrutivos devido à sua falta de confiabilidade e ao risco de serem usados ​​por pessoas mal-intencionadas.

Segundo Marcus, os sistemas de inteligência artificial atuais não são bem controlados. Apesar de ainda não estarem em um ponto crítico, os humanos estão delegando cada vez mais poder a eles, sem entender completamente as implicações.

No ano passado, Marcus reuniu "sete previsões sombrias" sobre sistemas como o ChatGPT, incluindo a possibilidade de a nova versão do programa agir como um "touro em uma loja de porcelanas", imprudente e difícil de controlar, cometendo erros estúpidos de maneiras imprevisíveis.

Um exemplo bizarro ocorreu no final de março, quando alguém pediu ao ChatGPT para listar acadêmicos envolvidos em casos de assédio sexual. O programa mencionou o professor norte-americano de Direito Jonathan Turley, acusando-o de comportamento inadequado durante uma viagem inexistente ao Alasca e citando uma reportagem fictícia do jornal The Washington Post. A OpenAI, empresa responsável pelo ChatGPT, admitiu que o programa nem sempre fornece respostas precisas.

Marcus argumenta que não há garantias de que esses programas funcionem corretamente, mesmo em cálculos matemáticos, pois carecem de controle e confiabilidade. Ele destaca que, diferentemente das calculadoras tradicionais, os modelos de linguagem de grande porte, como os LLMs (large language models), não são confiáveis.

Os LLMs armazenam quantidades enormes de dados e geram respostas aproximadas baseadas no que já foi dito por humanos. Embora sejam extremamente sofisticados, não entendem o que estão dizendo e às vezes "alucinam", fornecendo respostas inesperadas e desconexas. Marcus adverte que, apesar de não serem tão inteligentes, os LLMs são perigos. 
Fonte: BBC

Comentários

Postagens mais visitadas deste blog

O Efeitos Nocivos das Telas no Desenvolvimento do Cérebro

O impacto do xadrez sobre nosso intelecto segundo a ciência