“Mundo em perigo com a Inteligência Artificial”, afirma pesquisador
Pesquisador na área da tecnologia largou a carreira e disse ver riscos ao planeta com uma série de crises interligadas
Siga o Tribuna Online no Google
Pesquisador da equipe de segurança da Anthropic, Mrinank Sharma anunciou sua saída da empresa semana passada com um alerta chamativo. Em sua carta de demissão, o especialista citou preocupações crescentes com os riscos da inteligência artificial (IA), armas biológicas e uma série de crises globais interconectadas.
“O mundo está em perigo. E não apenas por causa da inteligência artificial ou das armas biológicas, mas por causa de toda uma série de crises interligadas que estão se desenrolando neste exato momento”, escreveu Sharma no X.
Fundada em 2021 por 15 dissidentes da OpenAI, a Anthropic surgiu como uma resposta ao rápido avanço comercial da companhia de Sam Altman, que supostamente sacrificava o desenvolvimento seguro da IA.
Para Dario Amodei, fundador da Anthropic, o risco de desenvolver IA sem as proteções necessárias significaria um risco para a humanidade. Foi assim que ele cunhou a ideia de uma “IA constitucional”, que embute nos modelos de IA uma lista de princípios que devem ser seguidos fielmente.
Porém, o pesquisador afirmou que empresas como a Anthropic enfrentam pressões constantes para deixar valores éticos de lado. Ele disse que “viu repetidamente como é difícil deixar que nossos valores realmente governem nossas ações”.
Segundo ele, companhias como a Anthropic “enfrentam constantemente pressões para deixar de lado o que é mais importante”.
Sharma liderava uma equipe que pesquisou medidas de segurança para sistemas de IA. Ele investigava por que os sistemas de IA generativa bajulam os usuários, combatia os riscos do bioterrorismo assistido por IA e pesquisava “como os assistentes de IA podem nos tornar menos humanos”.
Embora não tenha atribuído perigo imediato a nenhum modelo específico da Anthropic, o pesquisador avisou que vai abandonar a carreira. Ele decidiu estudar poesia e dedicar-se à escrita.
Após o boom do ChatGPT, em 2022, empresas de IA passaram a ficar pressionadas à medida que os investimentos bilionários começaram a ser realizados. A tensão entre o avanço comercial e o desenvolvimento seguro da tecnologia é um capítulo importante na história da OpenAI.
ONU defende “controle humano”
A Organização das Nações Unidas (ONU) divulgou na última sexta-feira que uma nova comissão busca o "controle humano" da inteligência artificial, ideia rejeitada pelo governo dos Estados Unidos.
“Estamos entrando no desconhecido”, afirmou o secretário-geral da ONU, António Guterres, na Cúpula sobre o Impacto da IA, em Nova Déli. “A mensagem é simples: menos exagero, menos medo. Mais fatos e evidências”.
Segundo Guterres, a Assembleia Geral da ONU designou 40 especialistas para um novo grupo denominado Painel Científico Internacional Independente sobre Inteligência Artificial.
O órgão consultivo foi criado em agosto e tem como objetivo abordar a IA da mesma forma que o IPCC (Painel Intergovernamental sobre Mudança Climática) da ONU trata o aquecimento global, estabelecendo avaliações sobre seu impacto e estratégias de resposta.
O conselheiro de tecnologia da Casa Branca, Michael Kratsios, afirmou que o governo dos Estados Unidos rejeita "totalmente" uma governança global da IA.
Ele disse que "Obsessões ideológicas centradas em riscos, como o clima ou a equidade, viram desculpas para a gestão burocrática e a centralização", afirmou.
MATÉRIAS RELACIONADAS:
Comentários