O advento recente da
inteligência artificial generativa* já revolucionou nossas vidas e sociedades, graças a ferramentas como o Chat-GPT ou o Gemini. Por enquanto, a IA generativa é usada essencialmente para gerar dados multimídia (edição de texto, resumo, retoque fotográfico, geração de vídeos, etc.).
No entanto, num futuro próximo, ela também poderá gerar dados mais técnicos, como os produzidos experimentalmente nos laboratórios de pesquisa universitários. Isso terá consequências sem precedentes na produção de conhecimento científico, que convém antecipar, sobretudo porque a IA pode
alucinar*.
A complexidade da biologia molecular é tal que, na massa dos dados correspondentes, alucinações minúsculas poderiam passar despercebidas, levando a conclusões equivocadas (por exemplo, um biomarcador inexistente) com consequências devastadoras, como a corrupção da literatura científica ou o financiamento de ensaios clínicos desinteressantes. No entanto, proibir a IA generativa na pesquisa científica privaria as comunidades científicas e médicas de ferramentas poderosas.
Para enfrentar esse dilema, os pesquisadores do CEA-Irig propuseram catalogar diversos casos de uso onde a IA pode ser utilizada com total confiabilidade graças a uma política de mitigação de riscos adequada. Seus trabalhos apresentam cerca de uma dezena de casos de uso classificados em três categorias:
1 - A geração de novas hipóteses,
2 - a geração de novos dados,
3 - a melhoria dos softwares de biologia computacional.
Exemplo de caso de uso
Completar uma coorte gerando dados adicionais sobre pacientes no grupo de pacientes doentes (
em verde ou grupo "
teste") seria muito arriscado, pois qualquer alucinação não detectada levaria a uma representação tendenciosa da doença.
Por outro lado, completar o grupo de pacientes saudáveis (
em vermelho) que serve de controle no estudo pode estar conforme a uma política de mitigação de riscos: primeiro, porque as alucinações não detectadas levariam aqui a uma maior diversidade dentro do grupo de controle, o que é conhecido por ser um meio eficaz de limitar os riscos de descobertas falsas. Em seguida, porque os pacientes saudáveis foram admitidos com mais frequência nos estudos de coorte, de modo que os dados potencialmente disponíveis para treinar a IA são mais numerosos, mais robustos e mais consistentes.
Este exemplo ilustra como um algoritmo de IA generativa dado, adaptado a uma tarefa dada, pode ser usado de diferentes maneiras, com uma exposição diferente aos riscos induzidos pelas alucinações.
Embora não sejam exaustivas, essas utilizações constituem uma primeira base para uma integração correta da IA generativa na abordagem científica, pois incentivam os pesquisadores a adotar um olhar crítico sobre sua utilização.
Notas:
*Inteligência Artificial Generativa refere-se a algoritmos que são capazes não apenas de analisar dados e tomar decisões ou fazer previsões, como as ferramentas clássicas de inteligência artificial (IA), mas que também podem gerar novos dados.
*Alucinações: ocorrem quando uma IA generativa responde a uma consulta (também chamada de "prompt") gerando detalhes que parecem plausíveis sob certos aspectos, mas que são ou errados (por exemplo, uma referência a um artigo inexistente), ou impossíveis de acordo com certas restrições do mundo real que são ignoradas pela IA generativa (por exemplo, o presidente americano Abraham Lincoln comentando sobre a internet, como na ilustração do início do artigo).
Fonte: CEA IRIG