Eliza, considerada a primeira ferramenta de chatbot, surgiu em 1966 no laboratório de Inteligência Artificial do MIT. No entanto, a onda de atenção em torno da inteligência artificial ascendeu apenas no final de 2022, pela popularização do Chat GPT. Confira o que especialistas têm a dizer sobre as consequências e limitações da ferramenta que virou o centro do debate!
Mas antes, o que é o Chat GPT e como ele funciona?
A ferramenta, desenvolvida pela empresa Open AI e lançada em novembro de 2022, se autodefine como um software de inteligência artificial projetado para conversar com pessoas em linguagem natural. O engenheiro e professor pelo Instituto Mauá de Tecnologia, Arnaldo Viana Júnior explica que se trata apenas de uma aplicação desenvolvida para usuários comuns conseguirem usar no dia a dia. Arnaldo conta que já houveram outras versões até a GPT 3.5, que se popularizou recentemente e é capaz de fornecer mais assertividade nas predições.
O bot funciona a partir de centenas de gigabytes de dados de fontes variadas, como livros técnicos e não técnicos, Wikipedia e Reddit. Uma das etapas de capacitação dos softwares é o aprendizado supervisionado, que consiste em inserir os dados de entrada no modelo, e ajustá-los até que esteja adequado. O engenheiro entrevistado compara esse estágio a um livro gabarito: “É como se tivesse o livro do professor, onde tem as perguntas e respostas. Conforme você vai lendo, vai entendendo e generalizando o que é esperado como a resposta correta.”
A segunda etapa do treinamento trata-se do ajuste fino, processo supervisionado por humanos no qual o modelo aprende respostas mais coerentes e naturais. Nessa fase, também são penalizadas respostas ofensivas ou que violem alguma regra, como tutoriais de hack ou solicitação de dados sensíveis, e criam-se travas para diminuir o viés do modelo.
Quais os riscos do Chat GPT e outras ferramentas de inteligência artificial?
De acordo com o próprio Chat GPT, ele “não apresenta riscos em si, já que é apenas uma ferramenta de software”, mas alerta para respostas preconceituosas ou ofensivas, dependência do usuário e questões de privacidade. O professor Luís Mauro de Sá Martino, formado em Jornalismo pela Faculdade Cásper Líbero e doutor em Ciências Sociais pela PUC-SP, aponta que esses riscos são apenas um reflexo de características humanas.
“De certo modo, ao falar com o Chat GPT estamos conversando com nós mesmos mediados por uma máquina.”
A novidade de fornecer respostas coerentes causou uma euforia coletiva, que fez a maioria dos usuários parar de questionar se os resultados eram corretos. “É como usar o Waze e não prestar atenção se o caminho faz sentido, apenas seguir”, disse Arnaldo. O ChatGPT pode ser útil na realização de tarefas simples, que o humano saiba como executar e consiga verificar a acurácia.
Ambos os professores entrevistados pela Her Campus Cásper Líbero afirmam que, no momento, o risco maior está na maturidade dos usuários. Segundo os especialistas, quando a pessoa não tem maturidade ou não entende o propósito da ferramenta, acaba delegando demandas, o que eleva chances de erro e falso aprendizado. Um exemplo, foi a trend do GymTok (“lado” fitness do TikTok) na qual os atletas solicitavam um treino e uma dieta ao chatbot. O engenheiro explica que em casos como esse, ao optar por se consultar com a máquina, ao invés de um profissional, os usuários estão sujeitos a informações que podem estar equivocadas sem perceber.
Outro aspecto de relevância na discussão dos perigos da inteligência artificial, está nos bastidores das máquinas. Os “micro trabalhadores” responsáveis por tornar as ferramentas mais precisas levam uma vida de tarefas repetitivas e salários baixos. Como ainda não há regulamentação, a mão de obra é exaustiva e os deveres propostos podem envolver exposição a conteúdos violentos e nocivos.
Relatos de colaboradores mostram jornadas abusivas, falta de direitos e danos emocionais gerados pelo trabalho. Além das circunstâncias legais, existe um impasse que preocupa os empregados: quanto mais capacitadas estiverem as IAs, mais provável a substituição de sua mão de obra.
E na área da comunicação, é um inimigo ou um aliado?
O surgimento de novos tipos de comunicadores, incluindo aplicações de inteligência artificial, preocupa alguns profissionais da comunicação. Ainda assim, o debate é dividido com aqueles que acreditam no Chat GPT como um software muito inteligente, mas que não passa de uma ferramenta. Segundo Luís Mauro, professor de jornalismo há mais de vinte anos, o software é uma economia de tempo em tarefas “terceirizáveis” que pode permitir aos comunicadores aprimoramento em tarefas essenciais da área que a máquina não é capaz de fazer, como o trabalho de campo, entrevistas humanizadas e a apuração.
O GPT é um modelo de linguagem que pode ser uma ferramenta útil para profissionais de diferentes áreas, incluindo jornalistas, roteiristas, escritores e qualquer pessoa que precise produzir textos. É importante compreender seu funcionamento e avaliar se sua utilização é necessária para a situação atual. Nesse sentido, o software pode ser visto como um aliado, para auxiliar com dúvidas específicas, questões gramaticais e traduções, já que não vai atuar sem receber uma instrução de um operador humano.
Entre as BigTechs, a popularidade do ChatGPT acirrou a corrida para aperfeiçoar e potencializar ferramentas semelhantes. Segundo o pioneiro da IA, Geoffrey Hinton, o ritmo de avanço dos softwares é impressionante e inesperado e novas tecnologias já surgem no mercado com mais inovações. A Claude, co-fundada por ex-executivos da OpenAI, é uma forte concorrente do Chat GPT e possui o diferencial de ser ditada por uma constituição que segue os princípios da Carta Universal de Direitos Humanos da ONU. Na perspectiva dos entrevistados, o questionamento deve ser como a IA pode melhorar a performance dos humanos.
O artigo acima foi editado por Mariana Cury
Gosta desse tipo de conteúdo? Confira a página inicial da Her Campus Casper Libero para mais!