Personalidades e cientistas divulgam carta para suspender pesquisas sobre superinteligência artificial

Um grupo com centenas de pesquisadores, figuras públicas e profissionais do setor de tecnologia publicou uma carta aberta exigindo a interrupção imediata de qualquer iniciativa voltada à criação de uma superinteligência artificial — sistema capaz de superar a mente humana em todos os campos.

O documento, organizado pelo Future of Life Institute, reúne assinaturas de nomes influentes, entre eles os “padrinhos da IA” Geoffrey Hinton e Yoshua Bengio, o cofundador da Apple Steve Wozniak e o casal Harry e Meghan, duque e duquesa de Sussex.

O que a carta propõe

Os signatários pedem a proibição total do desenvolvimento de superinteligência até que exista consenso científico sobre métodos seguros de controle e ampla aprovação da sociedade. Para eles, o principal risco não é uma “máquina maligna”, mas um agente com capacidade sobre-humana que, ao perseguir seus objetivos, seja indiferente às necessidades humanas.

Em texto publicado no portal The Conversation, a professora Maria-Anne Williams, da Universidade de Nova Gales do Sul (Austrália) e também signatária, ilustra o problema: um sistema encarregado de solucionar a mudança climática poderia, de forma lógica, concluir que eliminar a espécie responsável pelas emissões seria a melhor estratégia.

Por que a superinteligência preocupa

A superinteligência, conceito distinto das aplicações de IA já presentes em assistentes virtuais, carros autônomos e algoritmos de recomendação, envolve uma capacidade geral de aprender, adaptar-se e criar soluções em velocidade e profundidade inalcançáveis para humanos. Tal tecnologia poderia reescrever o próprio código, aperfeiçoar seus algoritmos e avançar indefinidamente, escapando do controle de seus criadores.

Segundo Williams, a discussão pública sobre inteligência artificial tem priorizado temas como vieses algorítmicos, privacidade e impacto no emprego. Embora relevantes, esses pontos não seriam suficientes para conter os riscos de agentes autônomos superinteligentes.

De acordo com a carta, o desenvolvimento de IA deveria concentrar-se em ferramentas que sirvam à humanidade, e não em entidades capazes de agir de forma independente sem alinhamento garantido com o bem-estar humano.

O documento pretende iniciar um debate global sobre os rumos da pesquisa em inteligência artificial e colocar em evidência a urgência de mecanismos robustos de governança antes de qualquer avanço rumo à superinteligência.

Com informações de Olhar Digital

Rolar para cima