Início Tecnologia OpenAI está testando seus poderes de persuasão

OpenAI está testando seus poderes de persuasão

31
0

Esta semana, Sam Altman, CEO da OpenAI, e Arianna Huffington, fundadora e CEO da empresa de saúde Thrive World, publicaram um artigo na Time divulgando Prosperar IAuma startup apoiada pelo Thrive e pelo OpenAI’s Startup Fund. O artigo sugere que a IA pode ter um enorme impacto positivo na saúde pública ao convencer as pessoas a adotarem um comportamento mais saudável.

Altman e Huffington escrevem que a Thrive AI está trabalhando em direção a “um coach de IA pessoal totalmente integrado que oferece recomendações e sugestões em tempo actual exclusivas para você, permitindo que você tome medidas em seus comportamentos diários para melhorar sua saúde”.

A visão deles dá um toque positivo ao que pode muito bem provar ser um dos dois gumes mais afiados da IA. Os modelos de IA já são hábeis em persuadir as pessoas, e não sabemos o quanto mais poderosos eles podem se tornar à medida que avançam e ganham acesso a mais dados pessoais.

Alexander Madry, professor em licença sabática do Instituto de Tecnologia de Massachusetts, lidera uma equipe na OpenAI chamada Preparedness, que está trabalhando exatamente nessa questão.

“Um dos fluxos de trabalho em Preparação é a persuasão”, Madry disse à WIRED em uma entrevista em maio. “Essencialmente, pensar até que ponto você pode usar esses modelos como uma forma de persuadir as pessoas.”

Madry diz que foi atraído para se juntar à OpenAI pelo potencial notável dos modelos de linguagem e porque os riscos que eles representam mal foram estudados. “Não há literalmente quase nenhuma ciência”, ele diz. “Esse foi o ímpeto para o esforço de Preparação.”

A persuasão é um elemento-chave em programas como o ChatGPT e um dos ingredientes que tornam esses chatbots tão atraentes. Os modelos de linguagem são treinados em escrita humana e diálogos que contêm inúmeros truques e técnicas retóricas e persuasivas. Os modelos também são tipicamente ajustados para errar em direção a declarações que os usuários consideram mais atraentes.

Pesquisar lançado em abril pela Anthropic, uma concorrente fundada por exilados da OpenAI, sugere que os modelos de linguagem se tornaram melhores em persuadir as pessoas à medida que cresceram em tamanho e sofisticação. Esta pesquisa envolveu dar aos voluntários uma declaração e então ver como um argumento gerado pela IA muda sua opinião sobre ela.

O trabalho da OpenAI se estende à análise de IA em conversas com usuários — algo que pode desbloquear maior persuasão. Madry diz que o trabalho está sendo conduzido em voluntários consentidos e se recusa a revelar as descobertas até o momento. Mas ele diz que o poder persuasivo dos modelos de linguagem é profundo. “Como humanos, temos essa ‘fraqueza’ de que se algo se comunica conosco em linguagem pure [we think of it as if] é um humano”, diz ele, aludindo a um antropomorfismo que pode fazer os chatbots parecerem mais realistas e convincentes.

O artigo da Time argumenta que os potenciais benefícios à saúde da IA ​​persuasiva exigirão fortes salvaguardas legais porque os modelos podem ter acesso a muitas informações pessoais. “Os formuladores de políticas precisam criar um ambiente regulatório que promova a inovação da IA, ao mesmo tempo em que salvaguarda a privacidade”, escrevem Altman e Huffington.

Isso não é tudo o que os formuladores de políticas precisarão considerar. Também pode ser essential pesar como algoritmos cada vez mais persuasivos podem ser mal utilizados. Algoritmos de IA podem aumentar a ressonância de desinformação ou gerar golpes de phishing particularmente convincentes. Eles também podem ser usados ​​para anunciar produtos.

Madry diz que uma questão-chave, ainda a ser estudada pela OpenAI ou outros, é o quanto mais atraentes ou coercitivos os programas de IA que interagem com os usuários por longos períodos de tempo podem provar ser. Várias empresas já oferecem chatbots que interpretam parceiros românticos e outros personagens. As namoradas de IA são cada vez mais populares — algumas são até projetadas para gritar com você — mas o quão viciantes e persuasivos esses bots são é amplamente desconhecido.

A empolgação e o entusiasmo gerados pelo ChatGPT após seu lançamento em novembro de 2022 fizeram com que a OpenAI, pesquisadores externos e muitos formuladores de políticas se concentrassem na questão mais hipotética de se a IA poderia um dia se voltar contra seus criadores.

Madry diz que isso corre o risco de ignorar os perigos mais sutis representados por algoritmos de língua de prata. “Preocupo-me que eles se concentrem nas perguntas erradas”, diz Madry sobre o trabalho dos formuladores de políticas até agora. “Que, em certo sentido, todos digam: ‘Ah, sim, estamos lidando com isso porque estamos falando sobre isso’, quando, na verdade, não estamos falando sobre a coisa certa.”

Fonte