Por que uma chave inglesa pode durar mais do que código na Era da IA

  • Categoria do post:Notícias

Geoffrey Hinton, um cientista conhecido por seu trabalho inicial em inteligência artificial, alertou mais uma vez que as pessoas podem estar subestimando os riscos ligados à tecnologia. Em uma entrevista recente, ele refletiu sobre como os sistemas que ele ajudou a criar evoluíram em uma direção que ele não antecipou totalmente. Sua preocupação, segundo ele, tem aumentado ao longo do tempo, à medida que as capacidades desses modelos continuam a evoluir em uma velocidade que torna difícil até mesmo para especialistas acompanharem.

Ele acredita que, embora os desenvolvimentos atuais apresentem muitos desafios, versões futuras da IA podem apresentar perigos muito mais sérios. Entre as possibilidades de longo prazo que ele considerou está aquela em que as máquinas desenvolvem a capacidade de tomar decisões além do controle humano. Isso não necessariamente aconteceria por meio de um evento dramático, mas poderia se manifestar gradualmente à medida que os sistemas se tornam mais autônomos e complexos.

Um dos pontos que ele levantou foi que os seres humanos nunca tiveram que lidar com uma inteligência que ultrapasse a deles. Por causa disso, ele disse, ainda é difícil prever como as coisas poderiam se desenrolar uma vez que esse limiar seja ultrapassado. Em sua visão, não há um plano claro do que fazer se tais sistemas começarem a agir de maneiras que não podemos controlar.

Apesar da natureza abstrata desses riscos, Hinton também discutiu problemas mais imediatos. Ele apontou que as ferramentas de IA podem ser usadas por pessoas com intenções maléficas, especialmente aquelas com acesso ao conhecimento biológico ou técnico. Por exemplo, alguém poderia explorar a IA para criar novos vírus ou realizar ciberataques direcionados. Segundo ele, o custo de causar interrupções diminuiu, enquanto a escala de danos aumentou.

Ele também se referiu ao uso da inteligência artificial em contextos políticos. O risco, segundo ele, advém de sua capacidade de moldar a opinião pública sem ser notado. Isso inclui a manipulação de eleições, a reforçar câmaras de eco online e espalhar desinformação a uma velocidade que sistemas manuais não poderiam alcançar. Ele observou que, uma vez que essas ferramentas se tornam parte da mensagem política diária, torna-se mais difícil saber se alguma campanha é totalmente orgânica.

Durante a conversa, Hinton sugeriu que as pessoas poderiam considerar desenvolver habilidades que as máquinas têm menos probabilidade de replicar em breve. Tarefas que exigem precisão física e experiência, como encanamento, podem permanecer em demanda por mais tempo do que aquelas que dependem apenas de saída digital. Em sua opinião, os sistemas podem se destacar em linguagem ou cálculos, mas ainda enfrentam dificuldades quando se trata de lidar com o mundo físico em tempo real.

Ele também compartilhou dúvidas sobre a ideia de desacelerar o desenvolvimento. Mesmo que um país decida pausar, outros podem continuar sem hesitação. Por isso, ele não espera que uma desaceleração coordenada aconteça em breve. A competição entre nações e empresas, segundo ele, está avançando mais rápido do que os reguladores podem responder.

Por enquanto, seu objetivo continua sendo conscientizar. Embora antes tenha se concentrado em empurrar os limites da aprendizagem de máquina, ele agora passa mais tempo tentando destacar os riscos que podem estar logo à frente. Se as pessoas optarem por agir sobre esses avisos, ele admite, é algo que ele não pode controlar.