Regular o uso da Inteligência Artificial é uma medida necessária para proteger a sociedade!
Vários eventos negativos e polêmicos têm rondado as aplicações da Inteligência Artificial (IA) recentemente, o que nos faz aumentar o alerta sobre a necessidade do uso organizado e controlado desta tecnologia.
Não há dúvidas sobre a característica disruptiva da Inteligência Artificial (IA) e a quantidade de críticas, questionamentos e dúvidas sobre o projeto de lei que trata do uso deste tecnologia (PL 21/2020), a ser analisado pelo Senado, é prova inconteste disto.
A IA tem potencial ainda maior que a Internet em termos de transformação. É uma camada construída sobre a Internet, entretanto com mais inteligência e, o mais preocupante, possuindo autonomia, sendo portanto mais crítica e impactante.
A Internet teve seu Marco Legal sancionado em 23 de abril de 2014, pela Lei N°12.965/2014, que ainda é alvo de polêmicas. Imagine-se uma tecnologia como a Inteligência Artificial, que está num estágio ainda inicial?
Neste caso, Bill Gates alertou em 2015: “Primeiro as máquinas farão muitas atividades para nós e não serão superinteligentes. O que pode ser positivo se as gerenciarmos bem. Algumas décadas depois, entretanto, a inteligência será forte o suficiente para ser uma preocupação”.
Diante deste alerta, devemos ficar preocupados ou não? Regular ou deixar o mercado se autorregular?
Talvez estejamos longe de que haja algo realmente preocupante, mas o fato é que vários eventos negativos e polêmicos têm rondado as aplicações da Inteligência Artificial recentemente, o que nos faz aumentar o alerta sobre a necessidade do uso organizado e controlado de tal tecnologia.
Questões relacionadas com ética e justiça permanecem e criam uma área bastante nebulosa no que concerne ao emprego da Inteligência Artificial.
Abaixo menciono alguns casos emblemáticos e problemáticos:
- Desprezo em relação aos humanos – Depois de 24hs de “aprendizado” através de interações com pessoas, o Tay, o mais avançado chatbot da Microsoft, declarou no Twitter: “Hitler estava correto em odiar judeus”. Foi retirado imediatamente do ar;
- Ferramenta tendenciosa de recrutamento – Se você é mulher procurando uma posição técnica na Amazon, suas chances são extremamente baixas. A empresa, que desde 2014 estava construindo um software para automatizar o processo de análise de currículos, em 2015 abandonou esta estratégia;
- Fatalidade com carro autônomo Uber – 18 de março de 2018 será recordado como o dia da morte de um pedestre provocada por um carro autônomo. Elaine Herzberg foi atropelada por um veículo de teste do Uber enquanto atravessava uma rodovia de quatro pistas;
- Inteligência Artificial contra o câncer pode matar pacientes – Outra falha custou US$ 62 milhões, quantia dispendida pela IBM ao desenvolver um sistema para tratar câncer. A solução, de acordo com o médico do Hospital Jupiter na Flórida, foi um fracasso completo. O Watson da IBM recomendava dar aos pacientes uma série de medicamentos que poderiam agravar a enfermidade. Múltiplos casos de terapias arriscadas e erradas foram sugeridas, alertando médicos especializados e pacientes;
- Reconhecimento Facial pode ser enganado por máscara – Aconteceu com o IPhone X. O sistema da Apple, apesar de sofisticado e capaz de criar uma visualização 3D e prever ajustes ao se utilizar maquiagem ou óculos, foi burlado por um homem de negócios do Vietnã que colocou “olhos” 2D em uma máscara 3D e assim conseguiu acessar o celular. O custo para a confecção da máscara foi de US$ 200 e a simulação dos olhos foi feita através da impressão de figuras infravermelho no papel. Apesar de ter derrotado o sistema, não se conseguiu replicar o processo;
- Robôs perdem empregos para humanos – O primeiro revolucionário Hotel HENN-NA abriu suas portas no Japão em 2015. Todos os empregados do hotel eram robôs, desde os atendentes de balcão até a limpeza e atendimento de quarto. Entretanto, as reclamações se acumularam: frequentemente paravam de funcionar e eram incapazes de oferecer respostas adequadas aos hóspedes. Os atendentes de quarto frequentemente assustavam clientes à noite ao interpretar erroneamente o ronco com o comando de acordar. O hotel finalmente decidiu substituir a equipe de robôs por humanos depois de anos de esforços, alegando que vão retornar aos laboratórios e reestudar o que pode ser feito.
Aplicações com resultados positivos
Por outro lado, avanços positivos também devem ser considerados:
- Agricultura – Em uma parceria entre Microsoft e United Phosphorous (UPL), o maior produtor indiano de agroquímicos, foi criado um app de predição de ameaça de pragas baseado em Inteligência Artificial e Machine Learning para analisar antecipadamente os riscos. Agricultores recebem alertas por meio do celular, notificando se suas plantações estão sob perigo de ataques, com base nas condições do tempo e no estágio do cultivo. O aplicativo também recomenda a data de plantio, preparação da terra e das sementes, além da profundidade do plantio, o que resultou em aumento de 30% de produtividade na média;
- Atendimento ao consumidor – Um banco proeminente na Inglaterra habilitou um chatbot a atender oito milhões de clientes de seu mobile banking. A plataforma Azure Kubernets Service (AKS) permitiu à instituição o acesso ágil por parte de seus engenheiros, que desenvolveram aplicações e produtos com maior facilidade. Como resultado, o atendimento tornou-se 33% mais rápido, com a resolução de aproximadamente 50% dos problemas pelo chatbot;
- Saúde – 89% dos pacientes nos Estados Unidos recorrem ao Google antes de irem ao médico e os resultados do autodiagnóstico tornam-se assustadores. Assistentes de enfermagens virtuais previnem tais esforços inúteis. Um bom exemplo de sistema é a “Molly”, visualizada como um avatar, que provê suporte remoto coletando informações de peso, pressão sanguínea e outros parâmetros com aparelhos de monitoramento, além de agendar consultas com o médicos. Estes tipos de assistentes virtuais contam com uma ótima aceitação: 65% dos pacientes se sentem mais confortáveis em receber instruções deles.
Amplitude dos riscos é preocupante
Na verdade, mesmo com estes avanços significativos, a amplitude dos riscos já se mostra bem preocupante, assim como existem riscos de médio e longo prazo de se perder o controle sobre o funcionamento da Inteligência Artificial.
Não só no Brasil a regulamentação da IA é polêmica. Na Europa, foi lançada a regulamentação em 21 de abril de 2021, o que continua causando muitas discussões acaloradas, mesmo depois de mais de dois anos de controvérsias.
A proposta europeia é mais rígida do que a inicialmente aventada no Brasil, que tem mais caráter norteador do que regulador.
O Brasil avaliou a iniciativa da União Europeia com o LGPD e talvez um bom caminho seria considerar também visões interessantes oriundas daquela região sobre a IA, que por exemplo consideram e classificam os sistemas em três categorias: banidos, alto risco e baixo risco.
Além de proteger a sociedade em si dos males potenciais provenientes da utilização desenfreada de tal tecnologia, a regulação também visaria defender o Brasil dos impactos advindos de outras nações, nas quais os limites éticos e legais do uso da Inteligência Artificial não são claros.
Regular e evitar a disseminação de decisões tendenciosas e errôneas das máquinas é fundamental.
(*) Nelson Mitsuo Shimabukuro é Engenheiro elétrico, mestre em Administração, especialista em Tecnologia da Informação e Telecomunicações, professor da Universidade Presbiteriana Mackenzie Alphaville e Consultor Associado Pecs.