Yuval Harari, Stuart Russell, Yuk Hui, Shoshana Zuboff e Evgeny Morozov são autores, reconhecidos mundo afora, críticos das externalidades negativas dos algoritmos de inteligência artificial (IA). É inegável a extraordinária contribuição de cada um deles ao debate contemporâneo, mas não os isenta de um olhar crítico do leitor.
Como argumenta Lucia Santaella (“Humanos Hiper-Híbridos”, 2021), é preciso evitar três práticas: a) o presentismo (“perder-se no presente em si, um presente sem passado e sem futuro e lembrar que vivemos num continuum“), b) um olhar anacrônico sobre o presente, ou seja, enxergá-lo com categorias mentais envelhecidas e obsoletas (“pensar dentro de esquemas antigos, com métodos antigos, mas com nomes pretensamente novos”), e c) a retórica da crítica, ou seja, a crítica pela crítica (“que não leva a nada, não tem poder de transformar as condições criticadas”).
Nem todo pensamento precisa ser comprovado por evidências, o “livre pensar” é um dos fundamentos da construção do conhecimento, origem de insights preciosos; inovação disruptiva requer pensar “fora da caixa”. Cabe, contudo, separar o que seja “livre pensar” do que seja construção de conhecimento, esse sim demanda certo rigor científico, ou seja, pesquisas com evidências; não basta apenas citar pesquisas para embasar afirmações retóricas (até mesmo porque existem pesquisas para “comprovar” qualquer ideia). Resultados de pesquisas que, verdadeiramente, sustentam premissas são função da metodologia, da base de dados, do modelo estatístico e da interpretação dos resultados; cada uma dessas etapas, se não for bem conduzida, compromete os resultados finais.
Um escrutínio minucioso dos textos desses autores indica descolamento entre algumas de suas afirmações – particularmente o grau de poder dos algoritmos de IA de influenciar o comportamento das pessoas, inclusive a subjetividade -, e as limitações da técnica de IA presente em “quase tudo” (“mero” modelo estatístico de probabilidade). O termo “autonomia” parece ser inapropriado para designar os algoritmos de IA; o tão denunciado viés, por exemplo, decorre, fundamentalmente, de decisões humanas em todas as etapas do processo: desde o desenvolvimento do modelo até a visualização e interpretação do usuário. Auditorias realizadas em sistemas de IA utilizados amplamente identificaram nas variáveis iniciais, definidas pelos desenvolvedores, a principal origem do viés.
Um tema recorrente é o efeito do esquema da Cambridge Analytica nas eleições americanas de 2016. Em recente Live no IFHC, Shoshana Zuboff, mais uma vez, denunciou a estratégia publicitária da campanha de Donald Trump baseada nos mecanismos de microtargeting (essência do modelo de negócio das plataformas de mídia/redes sociais e Google search). Zuboff citou uma pesquisa (2020) sobre o expressivo número de mensagens personalizadas enviadas aos eleitores americanos negros com a intenção de convencê-los a não votar nas eleições (nos EUA o voto não é obrigatório). O argumento “comprobatório” de sucesso dessa estratégia de campanha foi a queda de 7% no comparecimento de eleitores negros comparativamente à 2012.
O número expressivo de mensagens enviadas aos eleitores negros, contudo, não comprova a correlação com o aumento do percentual de abstenção desse segmento da população, muito menos relação de causalidade. A Pew Research Center, baseada em dados do US Census Bureau atestou que, efetivamente, houve uma queda de 7% – 59,6% em 2016, após o recorde de 66, 6% em 2012 – em relação à eleição anterior de 2012, mas vale lembrar que esse foi o ano de reeleição de Barack Obama! Além do fator “Obama”, claramente influenciador do voto negro, tiveram diversas mudanças na composição dos eleitores americanos. Numa matriz de variáveis, portanto, é difícil individualizar a relação de “causa-efeito” (qual variável determinou o efeito final). Em geral, em situações complexas, são vários os fatores que determinam o resultado final.
O livro “Network Propaganda” (2018), coautoria de Yochai Benkler – professor da Universidade de direito de Harvard e diretor do Berkman Klein Center For Internet & Society – é inteiramente dedicado às eleições americanas de 2016. Os autores reconhecem que “as empresas de mídia social, o Facebook em particular, ajudaram a campanha Trump, como fariam com qualquer cliente pagante, a usar seus dados profundos e percepções comportamentais para direcionar a publicidade” (lembram, inclusive, que a campanha do Obama usou intensamente as tecnologias digitais disponíveis à época com o beneplácito dos pensadores democratas). A conclusão do minucioso estudo, contudo, é que a crise da democracia é mais institucional do que tecnológica, mais focada na dinâmica do ecossistema de mídia dos EUA e na polarização política assimétrica (que antecede em muito a internet) do que por sistemas comerciais de publicidade, e concluem: “a publicidade psicograficamente microdirecionada da Cambridge Analytica é altamente improvável de ter feito diferença na campanha de 2016”.
No livro “Big Tech: A ascensão dos dados e a morte da política” (2018), Evgeny Morozov ilustra os danos da IA citando os sistemas automatizados de decisão de crédito (se o cliente da instituição financeira está ou não qualificado para receber o empréstimo solicitado): “Quando o fundador de uma startup de empréstimos proeminente proclama que ‘todos os dados são relevantes para o crédito, ainda que não saibamos como usá-los’, só posso temer o pior” alegando a constante ansiedade dos usuários diante de que cada interação, cada clique, cada telefonema pode influenciar a decisão de crédito. Primeiro, em geral, o público não tem conhecimento sobre os mecanismos de concessão de crédito (logo, não justifica a ansiedade). Segundo, e mais importante, a IA possibilitou incluir na análise de crédito um conjunto inédito de informações sobre o cliente, reduzindo significativamente o potencial risco de inadimplência, com efeitos positivos sobre o volume total de crédito do sistema bancário. No Brasil o total de crédito evoluiu de R$ 1,70 bilhões em 2010, R$ 3,22 bilhões em 2015 para R$ 4,57 trilhões em 2021 (Boletim do Banco Central do Brasil – Relatório Anual 2010, Boletim do Banco Central do Brasil – Relatório Anual 2015 e https://www.bcb.gov.br/estatisticas/estatisticasmonetariascredito). Esse é um exemplo da importância de considerar nas análises as externalidades positivas e negativas.
Morozov, outro exemplo, compara as vantagens de transações financeiras com dinheiro e com meios de pagamento com tecnologia: “o dinheiro vivo não deixa rastros, o que ergue barreiras importantes entre o cliente e o mercado. Quando pagamos com dinheiro, quase todas as transações são singulares – no sentido de que não estão vinculadas umas às outra. Por outro lado, ao pagarmos com o celular, há um histórico que pode ser explorado por agências de publicidade e por outras empresas”. É fato que a digitalização dos meios de pagamento fortalece os modelos baseados em dados (data-driven models), mas por outro lado concede velocidade e segurança inéditas às movimentações financeiras dos indivíduos e das empresas, beneficiando especialmente as micro/pequenas, haja visto a forte adesão ao Pix, usado por 71% dos brasileiros, aprovado por 85% da população em geral e 99% entre os jovens (Fonte: Radar Febraban).
Tem razão Morozov quando pondera que “nem tudo é tecnologia” e, portanto, “os progressistas radiciais não podem se dar ao luxo de serem tecnofóbicos”. A visão distópica de que estamos perdendo o controle da tecnologia de IA e a supervalorização de seus impactos, talvez sejam os dois grandes equívocos que, involuntariamente, acabam isentando as instituições e os governos de suas responsabilidades. O debate relevante é político e econômico com foco nas causas dos problemas sociais, e não nos seus efeitos.
Fonte: Época Negócios