Tecnologia

Modelos de Inteligência Artificial Baseiam-se em Artigos Científicos Retratados, Revela Estudo

Recentemente, descobriu-se que alguns modelos de inteligência artificial, incluindo chatbots amplamente utilizados como o ChatGPT, têm utilizado artigos científicos que foram retratados como base para algumas de suas respostas. Essa constatação tem gerado preocupações significativas sobre a confiabilidade dessas ferramentas tecnológicas, especialmente em áreas sensíveis como saúde e ciência.

O assunto levanta um alerta importante sobre como os avanços em inteligência artificial estão sendo implementados sem uma verificação minuciosa das fontes. Estudos identificados como inválidos ainda são citados pelos modelos de IA ao fornecer respostas a usuários em busca de informações precisas. A ausência de notificações adequadas sobre a retirada oficial desses estudos do registro científico representa um risco não apenas para o público em geral, mas também para profissionais e estudantes que dependem dessas informações para fundamentar suas teses e diagnósticos.

A problemática vai além da mera replicação de estudos retratados. Ela expõe a potencial influência dessas informações incorretas em decisões importantes, como aquelas voltadas para saúde pública, investimentos financeiros e formulação de políticas públicas. A confiança do público em informações fornecidas por IA pode ser abalada, comprometendo a utilização segura e eficaz dessas tecnologias no cotidiano.

Essa questão é especialmente relevante no contexto acadêmico, onde chatbots de IA são continuamente utilizados por estudantes para sumarizar artigos, realizar revisões de literatura e até mesmo gerar hipóteses de pesquisa. Quando uma IA baseia suas respostas em estudos que foram oficialmente invalidados, os riscos de conclusões errôneas aumentam consideravelmente, potencialmente afetando a qualidade e a credibilidade das pesquisas desenvolvidas.

Outro ponto crítico é o uso de IA em diagnósticos médicos preliminares. Muitas pessoas recorrem a essas ferramentas para entender sintomas ou buscar orientação inicial sobre problemas de saúde. A utilização de artigos retratados nessa área pode complicar ainda mais a situação, conduzindo a possíveis diagnósticos incorretos ou atrasados, o que pode ter consequências sérias para a saúde dos usuários.

Segundo um relatório do MIT, um dos principais desafios enfrentados para mitigar esse problema reside na falta de padronização entre as editoras científicas. Termos como “retratado” e “errata” são adotados de formas variadas, dificultando a identificação imediata por sistemas automatizados. Muitos artigos ainda circulam em servidores de pré-publicação e repositórios que não incluem atualizações de status, propagando involuntariamente versões desatualizadas sem as devidas notificações de retratação.

Especialistas sugerem que as empresas desenvolvedoras de modelos de IA passem a adotar sistemas de verificação em tempo real. Utilizar bases de dados como o Retraction Watch e catálogos acadêmicos constantemente atualizados pode ajudar a reduzir o número de citações de artigos retratados. Implementações já estão sendo anunciadas para melhorar essa questão, buscando garantir que as informações disseminadas pelos chatbots tenham um nível de precisão mais elevado.

Outra abordagem proposta é a inclusão de mais contexto nas respostas dadas pelos modelos de IA, introduzindo alertas claros sobre retratações, revisões por pares e críticas publicadas em plataformas especializadas como o PubPeer. Isso permitiria aos usuários uma distinção mais eficaz entre ciência validada e conteúdo que já foi desacreditado.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

vinte − 10 =

Botão Voltar ao topo