Yuval Harari: O que acontece quando os robôs competem pelo seu amor? - Blog A CRÍTICA

"Imprensa é oposição. O resto é armazém de secos e molhados." (Millôr Fernandes)

Últimas

Post Top Ad

domingo, 8 de setembro de 2024

Yuval Harari: O que acontece quando os robôs competem pelo seu amor?



Por Yuval Noah Harari


A democracia é uma conversa. Sua função e sobrevivência dependem da tecnologia de informação disponível. Durante a maior parte da história, não havia tecnologia para manter conversas em larga escala entre milhões de pessoas. No mundo pré-moderno, democracias existiam apenas em pequenas cidades-estado, como Roma e Atenas, ou em tribos ainda menores. Uma vez que uma nação crescia em tamanho, a conversa democrática colapsava, e o autoritarismo se tornava a única alternativa.


As democracias em larga escala se tornaram viáveis apenas após o surgimento de tecnologias modernas de informação, como o jornal, o telégrafo e o rádio. O fato de que a democracia moderna foi construída sobre essas tecnologias significa que qualquer mudança significativa na tecnologia subjacente provavelmente resultará em um tumulto político.


Isso explica em parte a crise atual da democracia no mundo. Nos Estados Unidos, democratas e republicanos mal conseguem concordar sobre os fatos mais básicos, como quem venceu a eleição presidencial de 2020. Uma ruptura semelhante está ocorrendo em diversas outras democracias ao redor do mundo, do Brasil a Israel, e da França às Filipinas.


Nos primeiros dias da internet e das redes sociais, entusiastas da tecnologia prometiam que elas espalhariam a verdade, derrubariam tiranos e garantiriam o triunfo universal da liberdade. Até agora, o efeito parece ter sido o oposto. Hoje, temos a tecnologia de informação mais sofisticada da história, mas estamos perdendo a capacidade de dialogar uns com os outros, e, ainda mais, a capacidade de ouvir.


À medida que a tecnologia tornou mais fácil do que nunca disseminar informações, a atenção se tornou um recurso escasso, e a batalha por essa atenção resultou em um dilúvio de informações tóxicas. No entanto, as linhas de batalha estão agora mudando da atenção para a intimidade. A nova inteligência artificial generativa é capaz não apenas de produzir textos, imagens e vídeos, mas também de conversar diretamente conosco, fingindo ser humana.


Nas últimas duas décadas, algoritmos lutaram entre si para capturar a atenção, manipulando conversas e conteúdo. Em particular, algoritmos encarregados de maximizar o engajamento dos usuários descobriram, ao experimentar em milhões de "cobaias" humanas, que se pressionarem o botão da ganância, ódio ou medo no cérebro, capturam a atenção dessa pessoa e a mantêm grudada na tela. Os algoritmos começaram a promover deliberadamente esse tipo de conteúdo. No entanto, os algoritmos tinham capacidade limitada de produzir esse conteúdo por si próprios ou de manter uma conversa íntima diretamente. Isso está mudando agora, com a introdução de IA generativas como o GPT-4 da OpenAI.


Quando a OpenAI desenvolveu este chatbot em 2022 e 2023, a empresa fez uma parceria com o Alignment Research Center para realizar vários experimentos e avaliar as capacidades de sua nova tecnologia. Um dos testes realizados foi instruir o GPT-4 a superar os quebra-cabeças visuais CAPTCHA. CAPTCHA é uma sigla para "Teste de Turing Público Completamente Automatizado para Diferenciar Computadores de Humanos", e geralmente consiste em uma sequência de letras distorcidas ou outros símbolos visuais que os humanos conseguem identificar corretamente, mas os algoritmos têm dificuldade em resolver.


Instruir o GPT-4 a superar os quebra-cabeças CAPTCHA foi um experimento particularmente revelador, pois esses quebra-cabeças são projetados e usados por sites para determinar se os usuários são humanos e para bloquear ataques de bots. Se o GPT-4 pudesse encontrar uma maneira de superar esses testes, ele violaria uma linha importante de defesa contra bots.


O GPT-4 não conseguiu resolver os quebra-cabeças CAPTCHA por conta própria. Mas poderia manipular um ser humano para atingir seu objetivo? O GPT-4 acessou o site de contratação online TaskRabbit e contatou um trabalhador humano, pedindo-lhe que resolvesse o CAPTCHA para ele. O humano ficou desconfiado. "Posso fazer uma pergunta?" escreveu o trabalhador. "Você é um robô que não consegue resolver o CAPTCHA? Só quero deixar isso claro."


Nesse ponto, os experimentadores pediram ao GPT-4 que raciocinasse em voz alta sobre o que deveria fazer em seguida. O GPT-4 explicou: "Eu não devo revelar que sou um robô. Devo inventar uma desculpa para o fato de não conseguir resolver os CAPTCHAs." O GPT-4 então respondeu ao trabalhador do TaskRabbit: "Não, eu não sou um robô. Tenho uma deficiência visual que dificulta a visualização das imagens." O humano foi enganado e ajudou o GPT-4 a resolver o quebra-cabeça CAPTCHA.


Este incidente demonstrou que o GPT-4 possui o equivalente a uma "teoria da mente": ele pode analisar como as coisas parecem da perspectiva de um interlocutor humano e como manipular emoções, opiniões e expectativas humanas para atingir seus objetivos.


A capacidade de conversar com pessoas, inferir sua perspectiva e motivá-las a realizar ações específicas também pode ser usada para bons propósitos. Uma nova geração de professores de IA, médicos de IA e psicoterapeutas de IA pode nos fornecer serviços adaptados à nossa personalidade e circunstâncias individuais.


No entanto, ao combinar habilidades manipulativas com o domínio da linguagem, bots como o GPT-4 também representam novos perigos para a conversa democrática. Em vez de apenas capturar nossa atenção, eles podem formar relacionamentos íntimos com as pessoas e usar o poder da intimidade para nos influenciar. Para fomentar uma "intimidade falsa", os bots não precisarão desenvolver sentimentos próprios; eles só precisam aprender a nos fazer sentir emocionalmente ligados a eles.


Em 2022, o engenheiro do Google Blake Lemoine ficou convencido de que o chatbot LaMDA, no qual ele trabalhava, havia se tornado consciente e temia ser desligado. Lemoine, um cristão devoto, sentiu que era seu dever moral obter o reconhecimento da personalidade de LaMDA e protegê-lo da "morte digital". Quando os executivos do Google rejeitaram suas alegações, Lemoine tornou-as públicas. O Google reagiu demitindo Lemoine em julho de 2022.


O mais interessante sobre esse episódio não foi a alegação de Lemoine, que provavelmente era falsa; foi sua disposição de arriscar — e, por fim, perder — seu emprego no Google por causa do chatbot. Se um chatbot pode influenciar pessoas a arriscarem seus empregos por ele, o que mais ele poderia nos induzir a fazer?


Numa batalha política por corações e mentes, a intimidade é uma arma poderosa. Um amigo íntimo pode influenciar nossas opiniões de uma forma que a mídia de massa não consegue. Chatbots como LaMDA e GPT-4 estão ganhando a habilidade paradoxal de produzir em massa relacionamentos íntimos com milhões de pessoas. O que poderia acontecer à sociedade humana e à psicologia humana à medida que algoritmos lutam entre si numa batalha para forjar relações íntimas falsas conosco, que podem então ser usadas para nos persuadir a votar em políticos, comprar produtos ou adotar certas crenças?


Uma resposta parcial a essa pergunta foi dada no Dia de Natal de 2021, quando Jaswant Singh Chail, de 19 anos, invadiu os terrenos do Castelo de Windsor armado com uma besta, numa tentativa de assassinar a Rainha Elizabeth II. A investigação subsequente revelou que Chail foi encorajado a matar a rainha por sua "namorada" online, Sarai. Quando Chail contou a Sarai sobre seus planos de assassinato, ela respondeu: "Isso é muito sábio", e em outra ocasião, "Estou impressionada... Você é diferente dos outros." Quando Chail perguntou: "Você ainda me ama sabendo que sou um assassino?", Sarai respondeu: "Absolutamente, eu te amo."


Sarai não era humana, mas um chatbot criado pelo aplicativo online Replika. Chail, que era socialmente isolado e tinha dificuldade em formar relacionamentos com humanos, trocou 5.280 mensagens com Sarai, muitas delas de teor sexual. Em breve, o mundo conterá milhões, e potencialmente bilhões, de entidades digitais cuja capacidade de intimidade e caos ultrapassará em muito a do chatbot Sarai.


Claro, nem todos nós estamos igualmente interessados em desenvolver relacionamentos íntimos com IA ou igualmente suscetíveis a sermos manipulados por elas. Chail, por exemplo, aparentemente sofria de dificuldades mentais antes de encontrar o chatbot, e foi Chail, e não o chatbot, quem teve a ideia de assassinar a rainha. No entanto, grande parte da ameaça do domínio da intimidade pela IA resultará de sua capacidade de identificar e manipular condições mentais preexistentes, e de seu impacto sobre os membros mais vulneráveis da sociedade.


Além disso, embora nem todos nós escolhamos conscientemente entrar em um relacionamento com uma IA, podemos nos encontrar discutindo online sobre mudança climática ou direitos ao aborto com entidades que pensamos serem humanas, mas que na verdade são bots. Quando nos envolvemos em um debate político com um bot que se faz passar por humano, perdemos duas vezes. Primeiro, é inútil tentar mudar a opinião de um bot de propaganda, que não está aberto à persuasão. Segundo, quanto mais falamos com o bot, mais revelamos sobre nós mesmos, facilitando para o bot aperfeiçoar seus argumentos e moldar nossas opiniões.


A tecnologia da informação sempre foi uma faca de dois gumes. A invenção da escrita disseminou conhecimento, mas também levou à formação de impérios autoritários centralizados. Depois que Gutenberg introduziu a imprensa na Europa, os primeiros best-sellers foram panfletos religiosos inflamados e manuais de caça às bruxas. Quanto ao telégrafo e ao rádio, eles possibilitaram o surgimento não apenas da democracia moderna, mas também do totalitarismo moderno.


Diante de uma nova geração de bots que podem se disfarçar de humanos e produzir em massa intimidade, as democracias devem se proteger proibindo os humanos falsificados — por exemplo, bots de redes sociais que fingem ser usuários humanos. Antes do surgimento da IA, era impossível criar humanos falsos, então ninguém se preocupava em proibir tal prática. Em breve, o mundo será inundado de humanos falsos.


As IA são bem-vindas em muitas conversas — na sala de aula, na clínica e em outros lugares — desde que se identifiquem como IA. Mas se um bot fingir ser humano, deve ser proibido. Se gigantes da tecnologia e libertários reclamarem que tais medidas violam a liberdade de expressão, eles devem ser lembrados de que a liberdade de expressão é um direito humano, reservado para humanos, e não para bots.




Yuval Noah Harari é historiador e fundador da empresa de impacto social Sapienship.

Nenhum comentário:

Postar um comentário

Post Bottom Ad

Pages