Um fenômeno tem despertado a curiosidade e o interesse de diversos usuários de internet nas últimas semanas. Trata-se da versão 3.5 do Chat GPT, uma plataforma virtual em que pessoas podem conversar com uma máquina em tempo real, por meio de mensagens escritas. As respostas do chatbot são feitas por meio de uma tecnologia capaz de armazenar bilhões de informações disponíveis na internet. A diferença para os sites de busca é que o Chat GPT escreve um texto próprio, em tempo real, de acordo com o comando feito pelo usuário.
A nova versão do chat ficou pronta em novembro do ano passado e teve pouca evolução em comparação com a anterior (a versão 3). Ambas operam com um embasamento de 175 bilhões de parâmetros. Para se ter uma ideia, a versão 2 contava com “apenas” 1,5 bilhão. E, além disso, 2023 promete ainda mais novidades, com o lançamento da versão 4.
Diante disso, a Alphabet, empresa que controla o Google, promete bater de frente com a tecnologia da Open AI — que desenvolveu o Chat GPT —, com o protótipo ‘Bard’, que opera de maneira similar ao concorrente.
O lançamento do Bard ocorreu em 7 de fevereiro, mas foi ofuscado por uma gafe. Durante a execução de um vídeo promocional, um trecho mostrava o sistema transmitindo uma notícia equivocada sobre o Telescópio Espacial James Webb (JWST). O erro custou caro à Alphabet, que viu suas ações despencarem na bolsa da tecnologia norte-americana, a Nasdaq, e perder mais de US$ 100 bilhões em um dia. A falha foi descoberta pela agência Reuters.
Na visão do especialista em direito digital e cybercrimes pelo Ibmec-SP, Luiz Augusto D’Urso, a apresentação foi uma mostra de como a ferramenta do Google ainda está em um patamar menos avançado que o do concorrente. Ainda assim, ele considera que há uma disputa saudável entre as duas empresas de tecnologia e que a concorrência pode ajudar a trazer mais evolução para os sistemas de chatbot controlados por inteligência artificial.
“Até porque nós estávamos em uma tendência de monopólio, com poucas empresas controlando praticamente quase todos os aplicativos, e isso é péssimo para todo mundo. No dia em que caíram os servidores da Meta, por exemplo, ficamos sem WhatsApp, sem Instagram, sem Facebook…O monopólio é ruim”, avalia D’Urso.
Limites éticos
O avanço da tecnologia no campo da inteligência artificial levanta, ainda, questionamentos sobre qual seria a barreira ética para o uso desses sistemas. O principal desafio é a utilização da tecnologia para falsificar autoria de textos e trabalhos acadêmicos ou profissionais.
Para a advogada especialista em direito digital Elaine Keller, no entanto, ainda é cedo para afirmar que a tecnologia tem a capacidade de “enganar” professores e avaliadores, por ainda apresentar textos sem expressão. “O nível de hoje é muito superficial. Ele ainda não tem uma linguagem aprofundada sobre temas acadêmicos. Além disso, aquele aluno que não quer aprender, não quer produzir, há muito tempo usa recursos como plagiar livros ou pedir para um colega fazer o trabalho”, compara a advogada.
Luiz D’Urso, que também dá aulas no Ibmec-SP, conta que há debates em grupos de professores em torno deste tema. O que se considera atualmente é que as escolas e universidades precisam aprimorar as avaliações, nas quais o aluno deveria expressar uma análise de “sentimento” e menos fria de opinião, que o software de IA ainda não entrega.
Outra preocupação relacionada ao uso de IA é a disseminação de notícias falsas. Como revela o exemplo do Bard, essas tecnologias, por atuarem na internet, estão sujeitas a se embasar em conteúdos falaciosos para a elaboração de textos e respostas às perguntas do chat.
Outra questão e debate é a necessidade de regulamentação desses sistemas, o que ainda não existe no Brasil ou em outros países, por se tratar de uma tecnologia recente. Mas as discussões avançam a passos largos.
No ano passado, o Senado Federal realizou uma série de seminários, reuniões e audiências públicas, para discutir o tema. E o ministro Ricardo Villas Bôas Cueva, do Superior Tribunal de Justiça (STJ), presidiu uma comissão de 18 juristas que apresentou um texto de 45 artigos, distribuídos em um relatório com mais de 900 páginas.
“A abordagem proposta pela comissão de juristas, traz aspectos bastante interessantes, em especial, uma regulação com abordagens distintas, baseada nos riscos trazidos pelas várias aplicações da inteligência artificial”, explica o coordenador-geral de Tecnologia e Pesquisa da Autoridade Nacional de Proteção de Dados (ANPD), Marcelo Guedes, que acompanhou os trabalhos no Congresso Nacional.
“Isso permite dosar as ferramentas do Estado, para que sejam mais ‘pesadas’ em aplicações que ofereçam risco à vida humana, por exemplo”, avalia Guedes. A advogada Elaine Keller ressalta que o legislador tem que estar sempre atento às implicações das novas tecnologias. “Mas limitar inovação é impossível. Nenhum país do mundo vai conseguir”, completa.
Fonte: Correio