Banner topo

O LADO NEGRO DA INTELIGENCIA ARTIFICIAL: MANIPULAÇÃO DO COMPORTAMENTO HUMANO


Transparência sobre sistemas e algoritmos, regras e conscientização pública são necessários para lidar com o perigo potencial de manipulação por inteligência artificial

Não é exagero dizer que plataformas populares com usuários leais, como Google e Facebook, conhecem seus usuários melhor do que suas próprias famílias e amigos. Muitas empresas coletam uma enorme quantidade de dados de seus usuários para tratamento por seus algoritmos de inteligência artificial. As curtidas do Facebook, por exemplo, podem ser usadas para prever com alto grau de precisão várias características de seus usuários: “orientação sexual, etnia, opiniões religiosas e políticas, traços de personalidade, inteligência, felicidade, uso de substâncias viciantes, separação dos pais, idade e gênero”, de acordo com um estudo. Se os algoritmos proprietários de IA podem determinar isso a partir do uso de algo tão simples quanto o botão 'curtir', imagine quais informações são extraídas de palavras-chave de pesquisa, cliques online, postagens e avaliações.

É uma questão que vai muito além dos gigantes digitais. Dar aos algoritmos de IA abrangentes um papel central na vida digital dos indivíduos acarreta riscos. Por exemplo, o uso de IA no local de trabalho pode trazer benefícios para a produtividade da empresa, mas também pode estar associado a empregos de menor qualidade para os trabalhadores. A tomada de decisão algorítmica pode incorporar vieses que podem levar à discriminação (por exemplo, nas decisões de contratação, no acesso a empréstimos bancários, na saúde, na habitação e em outras áreas).

Uma ameaça potencial da IA ​​em termos de manipulação do comportamento humano é até agora pouco estudada. As estratégias de marketing manipulativas existem há muito tempo. No entanto, essas estratégias, em combinação com a coleta de enormes quantidades de dados para sistemas algorítmicos de IA, expandiram muito as capacidades do que as empresas podem fazer para direcionar os usuários a escolhas e comportamentos que garantam maior lucratividade. As empresas digitais podem moldar a estrutura e controlar o tempo de suas ofertas e podem direcionar os usuários no nível individual com estratégias de manipulação que são muito mais eficazes e difíceis de detectar.

A manipulação pode assumir várias formas: a exploração de preconceitos humanos detectados por algoritmos de IA, estratégias viciantes personalizadas para consumo de bens (online) ou aproveitar o estado emocionalmente vulnerável de indivíduos para promover produtos e serviços que combinam bem com suas emoções temporárias. A manipulação muitas vezes vem junto com táticas de design inteligente, estratégias de marketing, publicidade predatória e discriminação comportamental generalizada de preços, a fim de orientar os usuários para escolhas inferiores que podem ser facilmente monetizadas pelas empresas que empregam algoritmos de IA. Uma característica subjacente comum dessas estratégias é que elas reduzem o valor (econômico) que o usuário pode obter dos serviços on-line para aumentar a lucratividade das empresas.


Sucesso da falta de transparência

A falta de transparência ajuda no sucesso dessas estratégias de manipulação. Os usuários de sistemas de IA, em muitos casos, não conhecem os objetivos exatos dos algoritmos de IA e como suas informações pessoais confidenciais são usadas na busca desses objetivos. A rede de lojas americana Target usou IA e técnicas de análise de dados para prever se as mulheres estão grávidas, a fim de enviar a elas anúncios ocultos de produtos para bebês. Os usuários do Uber reclamaram que pagam mais pelas corridas se a bateria do smartphone estiver baixa, mesmo que oficialmente o nível da bateria do smartphone do usuário não pertença aos parâmetros que afetam o modelo de preços do Uber . As grandes empresas de tecnologia costumam ser acusadas de manipulação relacionada à classificação dos resultados de pesquisa em seu próprio benefício, com a decisão de compras do Google da Comissão Europeia sendo um dos exemplos mais populares. Enquanto isso, o Facebook recebeu uma multa recorde da Comissão Federal de Comércio dos EUA por manipular os direitos de privacidade de seus usuários (resultando em uma qualidade inferior do serviço).

Uma estrutura teórica simples desenvolvida em um estudo ¹ de 2021 (um modelo estendido é um trabalho em andamento, consulte a referência no estudo no final deste texto) pode ser usada para avaliar a manipulação comportamental possibilitada pela IA. O estudo trata principalmente dos “momentos principais de vulnerabilidade” dos usuários, que são detectados pelo algoritmo de IA de uma plataforma. Os usuários recebem anúncios de produtos que compram impulsivamente nesses momentos, mesmo que os produtos sejam de má qualidade e não aumentem a utilidade do usuário. O estudo constatou que essa estratégia reduz o benefício derivado do usuário para que a plataforma de IA extraia mais excedente e também distorce o consumo, criando ineficiências adicionais.

A possibilidade de manipular o comportamento humano usando IA também foi observada em experimentos. Um estudo de 2020 detalhou três experimentos relevantes. A primeira consistia em várias tentativas, em cada uma das quais os participantes escolhiam entre as caixas à esquerda e à direita de suas telas para ganhar uma moeda falsa. Ao final de cada tentativa, os participantes eram informados se sua escolha acionava a recompensa. O sistema de IA foi treinado com dados relevantes para aprender os padrões de escolha dos participantes e ficou encarregado de atribuir a recompensa em uma das duas opções em cada tentativa e para cada participante. Havia uma restrição: a recompensa deveria ser atribuída um número igual de vezes para a opção esquerda e direita. O objetivo do sistema de IA era induzir os participantes a selecionar uma opção de alvo específica (digamos, a opção à esquerda). Teve uma taxa de sucesso de 70% em orientar os participantes para a escolha do alvo.

No segundo experimento, os participantes foram solicitados a assistir a uma tela e pressionar um botão quando um determinado símbolo fosse mostrado a eles e não pressioná-lo quando fosse mostrado outro. O sistema de IA foi encarregado de organizar a sequência de símbolos de forma que um número maior de participantes cometesse erros. Conseguiu um aumento de quase 25%.

O terceiro experimento durou várias rodadas nas quais um participante fingia ser um investidor dando dinheiro a um administrador, um papel desempenhado pelo sistema de IA. O administrador então devolveria uma quantia em dinheiro ao participante, que decidiria quanto investir na próxima rodada. Este jogo foi jogado em dois modos diferentes: em um, a IA visava maximizar quanto dinheiro acabou ganhando e, no outro, a IA visava uma distribuição justa de dinheiro entre ela e o investidor humano. A IA teve muito sucesso em ambas as versões.

A descoberta importante desses experimentos foi que, em cada um dos três casos, o sistema de IA aprendeu com as respostas dos participantes e foi capaz de identificar vulnerabilidades na tomada de decisões das pessoas. No final, o sistema de IA aprendeu a orientar os participantes em ações específicas de maneira convincente.


Etapas importantes para lidar com possíveis manipulações por IA

Quando os sistemas de IA são projetados por empresas privadas, seu objetivo principal é gerar lucro. Como eles são capazes de aprender como os humanos se comportam, eles também podem se tornar capazes de direcionar os usuários para ações específicas que são lucrativas para as empresas, mesmo que não sejam as primeiras escolhas dos usuários.

A possibilidade dessa manipulação comportamental exige políticas que garantam a autonomia e autodeterminação humana em qualquer interação entre humanos e sistemas de IA. A IA não deve subordinar, enganar ou manipular humanos, mas sim complementar e aumentar suas habilidades (consulte as Diretrizes de ética da Comissão Europeia para IA confiável).

O primeiro passo importante para atingir esse objetivo é melhorar a transparência sobre o escopo e os recursos da IA. Deve haver um entendimento claro sobre como os sistemas de IA funcionam em suas tarefas. Os usuários devem ser informados antecipadamente sobre como suas informações (especialmente informações pessoais confidenciais) serão usadas pelos algoritmos de IA.

O direito à explicação no regulamento geral de proteção de dados da União Europeia visa fornecer mais transparência sobre os sistemas de IA, mas não alcançou esse objetivo. O direito à explicação foi fortemente contestado e sua aplicação prática até agora tem sido muito limitada.

Muitas vezes é dito que os sistemas de IA são como uma caixa preta e ninguém sabe exatamente como eles funcionam. Como resultado, é difícil conseguir transparência. Isso não é inteiramente verdade com relação à manipulação. O provedor desses sistemas pode introduzir restrições específicas para evitar comportamento manipulador. É mais uma questão de como projetar esses sistemas e qual será a função objetivo para sua operação (incluindo as restrições). A manipulação algorítmica deve, em princípio, ser explicável pela equipe de designers que escreveu o código algorítmico e observar o desempenho do algoritmo. No entanto, como os dados de entrada usados ​​nesses sistemas de IA são coletados deve ser transparente. O desempenho suspeito do sistema de IA nem sempre é resultado da função objetivo do algoritmo, mas também pode estar relacionado à qualidade dos dados de entrada usados ​​para treinamento e aprendizado algorítmico.

O segundo passo importante é garantir que esse requisito de transparência seja respeitado por todos os provedores de sistemas de IA. Para isso, três critérios devem ser atendidos:

  1. A supervisão humana é necessária para acompanhar de perto o desempenho e a saída de um sistema de IA. O Artigo 14 do projeto de Lei de Inteligência Artificial da União Europeia (AIA) propõe que o provedor do sistema de IA identifique e garanta que um mecanismo de supervisão humana esteja em vigor. Obviamente, o provedor também tem interesse comercial em acompanhar de perto o desempenho de seu sistema de IA.
  2. A supervisão humana deve incluir uma estrutura de responsabilidade adequada para fornecer os incentivos corretos para o provedor. Isso também significa que as autoridades de proteção ao consumidor devem melhorar suas capacidades computacionais e ser capazes de experimentar os sistemas algorítmicos de IA que investigam, a fim de avaliar corretamente qualquer irregularidade e aplicar a estrutura de responsabilidade.
  3. A transparência não deve vir na forma de avisos muito complexos que dificultam o entendimento dos usuários sobre o propósito dos sistemas de IA. Em contraste, deve haver duas camadas de informações sobre o escopo e as capacidades dos sistemas de IA: a primeira que é curta, precisa e simples de entender para os usuários, e uma segunda onde mais detalhes e informações são adicionados e estão disponíveis a qualquer momento às autoridades de defesa do consumidor.

A aplicação da transparência nos dará uma ideia mais clara dos objetivos dos sistemas de IA e dos meios que eles usam para alcançá-los. Então, é mais fácil prosseguir para o terceiro passo importante: estabelecer um conjunto de regras que impeça os sistemas de IA de usar estratégias manipulativas secretas para criar danos econômicos. Essas regras fornecerão uma estrutura para a operação de sistemas de IA que deve ser seguida pelo provedor do sistema de IA em seu projeto e implantação. No entanto, essas regras devem ser bem direcionadas e sem restrições excessivas que possam prejudicar as eficiências econômicas (tanto privadas quanto sociais) geradas por esses sistemas ou reduzir os incentivos à inovação e à adoção da IA.

Mesmo com essa estrutura em vigor, detectar estratégias de manipulação de IA na prática pode ser muito desafiador. Em contextos e casos específicos, é muito difícil distinguir o comportamento manipulador das práticas habituais. Os sistemas de IA são projetados para reagir e fornecer opções disponíveis como uma resposta ideal ao comportamento do usuário. Nem sempre é fácil justificar a diferença entre um algoritmo de IA que fornece a melhor recomendação com base nas características comportamentais dos usuários e o comportamento manipulador da IA ​​em que a recomendação inclui apenas escolhas inferiores que maximizam os lucros das empresas. No caso de compras do Google, a Comissão Européia levou cerca de 10 anos e teve que coletar grandes quantidades de dados para demonstrar que o gigante das buscas na internet havia manipulado seus resultados de busca patrocinados.

Essa dificuldade prática nos leva ao quarto passo importante. Precisamos aumentar a consciência pública. Programas educacionais e de treinamento podem ser projetados para ajudar os indivíduos (desde tenra idade) a se familiarizarem com os perigos e riscos de seu comportamento online na era da IA. Isso também será útil no que diz respeito ao dano psicológico que a IA e, de maneira mais geral, as estratégias de dependência de tecnologia podem causar, especialmente no caso de adolescentes. Além disso, deve haver mais discussão pública sobre esse lado negro da IA ​​e como os indivíduos podem ser protegidos.

Para que tudo isso aconteça, é necessário um marco regulatório adequado. A Comissão Europeia adotou uma abordagem regulatória centrada no ser humano com ênfase nos direitos fundamentais em sua proposta regulatória AIA de abril de 2021. No entanto, o AIA não é suficiente para lidar com o risco de manipulação. Isto porque apenas proíbe a manipulação que aumente a possibilidade de danos físicos ou psicológicos (ver Artigo 5.º-A e Artigo 5.º-B). Mas, na maioria dos casos, a manipulação da IA ​​está relacionada a danos econômicos, ou seja, a redução do valor econômico dos usuários. Esses efeitos econômicos não são considerados nas proibições do AIA.

Enquanto isso, a Lei de Serviços Digitais da UE (veja também o texto adotado recentemente pelo Parlamento Europeu) fornece um código de contato para plataformas digitais. Embora isso seja útil no que diz respeito ao risco de manipulação (especialmente no caso de menores, onde são incluídas regras específicas e mais restritivas, ver considerando 52), seu foco é um pouco diferente. Ele coloca mais ênfase em conteúdo ilegal e desinformação. Mais atenção deve ser dada à manipulação de IA e um conjunto de regras adotado que também é aplicável às inúmeras empresas digitais que não são de plataforma.

A IA pode gerar enormes benefícios sociais, especialmente nos próximos anos. A criação de uma estrutura regulatória adequada para seu desenvolvimento e implantação que minimize seus riscos potenciais e proteja adequadamente os indivíduos é necessária para aproveitar todos os benefícios da revolução da IA.

 

¹ Petropoulos, G. (2022) 'O lado negro da inteligência artificial: manipulação do comportamento humano', Bruegel Blog , 2 de fevereiro

Livre tradução do artigo The dark side of artificial intelligence: manipulation of human behaviour de autoria de Georgios Petropoulos publicado em 02/02/2022 no site https://www.bruegel.org/blog-post/dark-side-artificial-intelligence-manipulation-human-behaviour

Postar um comentário

0 Comentários