Banner topo

OS 5 PIORES CENÁRIOS DA INTELIGÊNCIA ARTIFICIAL


Quando as pessoas pensam em inteligência artificial (IA), muitos imaginam androides assassinos e computadores insanos.


Filmes de Hollywood como "Blade Runner" (O Caçador de Androides) e "The Terminator" (O Exterminador do Futuro) incutiram em nós uma sensação de pavor ao pensarmos em uma IA que vai contra a sua programação e se volta contra os humanos.

Para uma indústria que pode faturar mais de US $ 1 trilhão em 2018 e quase US $ 4 trilhões até 2022, quaisquer dúvidas importantes sobre suas implicações éticas podem ter consequências significativas.

IA é uma palavra de ordem frequentemente citada no mundo corporativo e nos meios de comunicação, e já está modificando uma série de indústrias - incluindo aquelas que dependem de uma quantidade significativa de trabalho manual.

À medida que a IA se aproxima cada vez mais da maturidade e as empresas continuam a aumentar seus investimentos nela, alguns temem que não exista dedicação ou  atenção suficientes com relação às possíveis implicações sociais e morais mais amplas que essa tecnologia trás consigo.

A CNBC conversou com alguns especialistas para descobrir, na opinião deles, quais são os cinco cenários potencialmente mais assustadores para a IA em um futuro próximo.



Desemprego em massa

Um medo bastante comum entre os analistas e os trabalhadores é a probabilidade de que a IA resulte em desemprego global em massa à medida em que os empregos se tornem cada vez mais automatizados e o trabalho humano não seja mais necessário.

"As perdas de emprego são provavelmente a maior preocupação", disse Alan Bundy, professor da escola de informática da Universidade de Edimburgo.

Segundo Bundy, as perdas de emprego são a principal razão para o aumento do populismo em todo o mundo - ele cita a eleição do presidente Donald Trump e o BREXIT como exemplos.

"Haverá a necessidade de humanos orquestrarem coleções de aplicativos específicos ao identificarem casos extremos onde estes aplicativos isoladamente não trazem uma solução, mas isso não cobrirá o desemprego em massa que se projeta adiante - pelo menos não por um longo tempo", ele complementou.

Mas os proponentes da IA dizem que a tecnologia levará à criação de novos tipos de empregos.

A necessidade de engenheiros será intensificada, já que a sofisticação da nova tecnologia requer o talento certo para desenvolvê-la.

Os seres humanos também terão que usar IA, dizem os defensores, para desempenhar novas funções em suas atividades diárias.

A empresa de pesquisa Gartner prevê que a IA criará 2,3 milhões de empregos e eliminará 1,8 milhão - um aumento líquido de 500.000 empregos - até 2020. Isso não elimina o fato de que isso resultaria em grandes demissões em todo o mundo. [nota deste blog: tão pouco elimina o fato de que muitos dos que perderem seus empregos pela obsolescência de sua profissão não terão meios emocionais, psicológicos, mentais e físicos de se requalificarem para os novos empregos em tecnologia de ponta - os que já estão da metade para o final de suas supostas carreiras ficarão desempregados ou viverão dos poucos subempregos que restarem - isso sem falar daqueles que simplesmente nunca tiveram acesso à educação adequada]
Um estudo de 2013 da Universidade de Oxford, frequentemente citado quando esse assunto vem à tona, aponta que alguns dos empregos mais substituíveis incluem corretores, caixas de banco e fiscais de impostos - ocupações críticas, embora menos qualificadas, que mantêm a indústria financeira em movimento.

Embora seja possível minimizar os danos da IA no mercado de trabalho ​através da melhoria de qualificação e da invenção de novos empregos - e talvez até mesmo introduzir uma renda básica universal - é claro que a questão da perda de empregos não desaparecerá tão cedo.



Guerra

Com o surgimento dos chamados "robôs assassinos" e outras aplicações da IA ​​em cenários militares faz com que alguns especialistas temam que a tecnologia acabe resultando em guerras.

O diretor-executivo da Tesla, Elon Musk, conhecido por suas opiniões sinceras sobre a inteligência artificial, alertou em 2017 que a tecnologia poderia resultar na Terceira Guerra Mundial.

Embora conhecido por sua hipérbole, o comentário de Musk canalizou um medo muito real para os especialistas. Alguns analistas e ativistas argumentam que o desenvolvimento de armas autônomas letais e o uso da inteligência artificial na tomada de decisões militares criam uma infinidade de dilemas éticos e abre a possibilidade de guerras incrementadas ou lideradas por IA.

Existe até um grupo de ONGs (organizações não governamentais) dedicadas a proibir a adoção de IA no meio militar. A  Campaign to Stop Killer Robots (Campanha de Parada dos Robôs Assassinos), criada em 2013, pede aos governos do mundo que evitem o desenvolvimento de drones e outros veículos guiados por IA.

Frank van Harmelen, um pesquisador de IA da Vrije Universiteit Amsterdam, disse que, embora ele não ache que usar a palavra "assustador" para descrever a IA seja algo inteiramente preciso, o uso dessas armas deveria assustar qualquer um.

"A única área em que realmente acho que a palavra 'assustador' se aplica é em sistemas de armas autônomas... sistemas que podem ou não parecer um robô", disse Harmelen.

"Qualquer sistema de computador, IA ou não, que decide automaticamente sobre questões de vida e morte - por exemplo, lançando um míssil - é uma ideia realmente assustadora".

No começo de 2018, o grupo de defesa norte-americano Rand Corporation alertou em um estudo que a adoção de IA em aplicações militares podem provocar uma guerra nuclear até o ano de 2040.

O pensamento por trás dessa previsão ousada era que a chance de um sistema militar de IA cometer um erro em sua análise de uma situação poderia levar as nações a tomar decisões precipitadas e potencialmente catastróficas.

Essas preocupações surgiram de um incidente infame em 1983, quando o ex-oficial soviético Stanislav Petrov evitou uma guerra nuclear ao notar que os computadores russos tinham incorretamente emitido um alerta informando que os EUA haviam lançado mísseis nucleares.



Robôs médicos

Embora os especialistas estejam em grande parte de acordo sobre os benefícios que a IA trará aos médicos - como diagnosticar doenças logo no início e acelerar a experiência da assistência médica - alguns médicos e acadêmicos estão cautelosos quanto a uma rápida adoção de práticas médicas baseadas em dados.

Um temor entre os acadêmicos é que as pessoas estão depositando muitas esperanças na IA, supondo que ela poderá criar o tipo de inteligência que os humanos possuem para resolver uma ampla gama de problemas.

"Todos os aplicativos bem-sucedidos de IA até hoje são incrivelmente bem-sucedidos, mas em uma faixa muito estreita de aplicação", disse Bundy, da Universidade de Edimburgo.

Segundo Bundy, essas expectativas podem ter consequências potencialmente terríveis para uma indústria como a saúde. "Um aplicativo de diagnósticos médicos, que é excelente com problemas cardíacos, pode diagnosticar um paciente com câncer como tendo algum tipo raro de problema cardíaco, com resultados potencialmente fatais", disse ele.

Há algum tempo um relatório da publicação STAT (com foco em saúde) citou documentos internos da IBM mostrando que seu supercomputador Watson havia feito várias recomendações de tratamento de câncer "inseguras e incorretas". De acordo com o artigo, o software foi treinado apenas para lidar com um pequeno número de casos e cenários hipotéticos em vez de dados reais de pacientes.

"Criamos a Watson Health três anos atrás para levar a inteligência artificial a alguns dos maiores desafios na área de saúde, e estamos satisfeitos com o progresso que estamos fazendo", disse um porta-voz da IBM à CNBC.

"Nossas contribuições com a oncologia e com a genômica são usadas por 230 hospitais em todo o mundo e apoiaram o atendimento de mais de 84.000 pacientes, o que é quase o dobro do número de pacientes que haviam até o final de 2017".

O porta-voz acrescentou: "Ao mesmo tempo, aprendemos e melhoramos o Watson Health com base no feedback contínuo de clientes, novas evidências científicas e novos cânceres e alternativas de tratamento. Isso inclui 11 lançamentos de software para funcionalidades ainda melhores durante 2017, incluindo diretrizes para cânceres variando de cólon à câncer de fígado".

Outra preocupação é que o volume de dados devorado pelos computadores e compartilhado - assim como os algoritmos baseados em dados que automatizam aplicativos usando esses dados - poderia ter implicações éticas sobre a privacidade dos pacientes.

O surgimento do big data, agora uma indústria multibilionária que cobre inúmeros aspectos de interesse humano, significa que a quantidade de informações pessoais que podem ser coletadas por máquinas aumentou para um tamanho insondável.

O fenômeno está sendo apontado como um avanço para o mapeamento de várias doenças, prevendo a probabilidade de alguém ficar gravemente doente e examinar o tratamento antecipadamente. Mas as preocupações sobre quantos dados são armazenados e onde estão sendo compartilhados estão se mostrando problemáticos.

Tome a DeepMind como exemplo. A empresa de inteligência artificial da Google assinou um contrato com o Serviço Nacional de Saúde do Reino Unido em 2015, obtendo acesso aos dados de saúde de 1,6 milhão de pacientes britânicos. O serviço implicava que os pacientes entregavam seus dados à empresa para que ela melhorasse a capacidade de seus programas em detectar doenças. Isso levou à criação de um aplicativo chamado Streams, destinado a monitorar pacientes com doenças renais e alertar os médicos quando a condição do paciente se deteriorava.

Mas no ano passado, o órgão de vigilância da privacidade do Reino Unido, o Information Commissioner's Office, decidiu que o contrato entre o NHS e a DeepMind "não cumpria a lei de proteção de dados". A OIC disse que o Royal Free Hospital de Londres, que trabalhou com a DeepMind como parte do acordo, não era transparente sobre como os dados dos pacientes seriam usados.



Vigilância em massa

Os especialistas também temem que a inteligência artificial possa ser usada para realizar vigilância em massa. Na China, esse medo parece estar se tornando uma realidade.

Em vários municípios chineses, a combinação de tecnologia de reconhecimento facial e inteligência artificial está sendo usada em benefício das autoridades para reprimir o crime.

A superpotência mundial é conhecida pelo seu autoritarismo social, com o culto à personalidade do falecido presidente Mao Zedong sendo ainda muito difundido por todo o território quatro décadas após a sua morte. Os críticos dizem que o impulso da nação em direção à uma vigilância total é nada menos do que um pesadelo orwelliano.

A China é atualmente o lar de cerca de 200 milhões de câmeras de vigilância, de acordo com um relatório do New York Times publicado em meados de agosto de 2018. É também o único país do mundo a lançar um "sistema de crédito social" que monitora as atividades dos cidadãos para classificá-los com pontuações que podem determinar se eles serão barrados desde a compra de passagens de avião até no acesso a determinados serviços de encontros on-line.

A China, que está disposta a ser líder global em IA até 2030, quer aumentar o valor de seu setor de IA para 1 trilhão de yuans (US $ 146,6 bilhões). O país está investindo bilhões no setor para ajudar a impulsionar essa ambição.

Uma empresa que lidera a fusão de tecnologia de reconhecimento facial e IA é o SenseTime. Considerada a start-up mais valiosa do mundo, com um valor estimado em US $ 4,5 bilhões, a SenseTime, subsidiada pelo Alibaba, fornece às autoridades de Guangzhou e da província de Yunnan identificação facial com tecnologia de IA.

A SenseTime diz em seu site que o departamento de segurança pública de Guangzhou identificou mais de 2.000 suspeitos de crimes desde 2017 com a ajuda da tecnologia.

Toby Walsh, professor de IA da Universidade de New South Wales, disse que as preocupações com vigilância estavam "no topo" de sua lista de ramificações assustadoras associadas à IA.



Discriminação

Alguns leitores podem se lembrar de Tay, um chatbot criado pela Microsoft e que causou um tumulto há dois anos.

O bot ganhou uma conta no Twitter, e levou menos de um dia para que os usuários o treinassem para postar tweets ofensivos apoiando Adolf Hitler e a supremacia branca. O problema aqui foi o fato de que o chatbot foi treinado para imitar os usuários interagindo online. Considerando a natureza muitas vezes obscura de alguns cantos da Internet, pode-se dizer que os tweets ofensivos não foram surpreendentes.

O erro forçou a Microsoft a desligar a conta. Embora o incidente tenha provado ser um pouco engraçado, ele desencadeou um debate sério sobre o potencial da IA ​​tornar-se preconceituosa.

Walsh disse que a discriminação é uma das várias "consequências inesperadas" que se espera da tecnologia.

"Estamos vendo isso como um viés não intencional dos algoritmos, especialmente os relacionados a aprendizado de máquina, que ameaçam replicar preconceitos raciais, sexuais e outros que passamos os últimos 50 anos tentando remover da nossa sociedade", disse ele.

A questão, dizem os especialistas, relaciona-se à viabilidade de fazer da IA um pensador objetivo e racional, livre de preconceitos em favor de uma raça, gênero ou sexualidade em particular.

É algo que pesquisadores e desenvolvedores vêm pensando seriamente, examinando coisas como a forma com que a tecnologia de reconhecimento facial aparece melhor em rostos brancos do que em negros, e como sistemas de processamento de linguagem podem exibir preconceitos, associando certos gêneros e raças a papéis estereotipados.

A IBM até tem pesquisadores dedicados a combater a discriminação em IA, e no início deste ano disse que lançaria dois conjuntos de dados contendo uma gama diversificada de rostos com diferentes tons de pele e outros atributos faciais para reduzir o viés em sistemas de reconhecimento facial alimentados por IA.


Livre tradução do artigo 'Five of the scariest predictions about artificial intelligence' postado em https://www.cnbc.com/2018/08/01/five-of-the-scariest-predictions-for-ai.html

Postar um comentário

0 Comentários