Das jüngste Aufkommen der
generativen künstlichen Intelligenz* hat unser Leben und unsere Gesellschaft bereits revolutioniert, dank Tools wie Chat-GPT oder Gemini. Derzeit wird generative KI hauptsächlich zur Erzeugung multimediaber Daten verwendet (Textbearbeitung, Zusammenfassung, Fotobearbeitung, Videogenerierung usw.).
In naher Zukunft könnte sie jedoch auch technischere Daten erzeugen, wie sie experimentell in universitären Forschungslaboren produziert werden. Dies wird beispiellose Auswirkungen auf die Wissensproduktion in der Wissenschaft haben, die es vorauszusehen gilt, insbesondere weil KI
halluzinieren* kann.
Die Komplexität der Molekularbiologie ist so groß, dass in der Masse der entsprechenden Daten winzige Halluzinationen unbemerkt bleiben könnten, was zu falschen Schlussfolgerungen führen würde (z. B. ein nicht existierender Biomarker) mit verheerenden Folgen, wie der Verfälschung der wissenschaftlichen Literatur oder der Finanzierung unnötiger klinischer Studien. Die generative KI in der wissenschaftlichen Forschung zu verbieten, würde jedoch die wissenschaftlichen und medizinischen Gemeinschaften um leistungsstarke Werkzeuge bringen.
Um diesem Dilemma zu begegnen, haben Forscher des CEA-Irig vorgeschlagen, verschiedene Anwendungsfälle aufzulisten, in denen KI dank einer angemessenen Risikominderungspolitik zuverlässig eingesetzt werden kann. Ihre Arbeit stellt etwa ein Dutzend Anwendungsfälle vor, die in drei Kategorien eingeteilt sind:
1 - Die Generierung neuer Hypothesen,
2 - die Generierung neuer Daten,
3 - die Verbesserung von Software für Computerbiologie.
Beispiel für einen Anwendungsfall
Das Vervollständigen einer Kohorte durch das Generieren zusätzlicher Daten von Patienten in der Gruppe der kranken Patienten (
in grün oder "
Test"-Gruppe) wäre sehr riskant, da jede unentdeckte Halluzination zu einer verzerrten Darstellung der Krankheit führen würde.
Im Gegensatz dazu kann das Vervollständigen der Gruppe der gesunden Patienten (
in rot), die in der Studie als Kontrolle dient, einer Risikominderungspolitik entsprechen: erstens, weil unentdeckte Halluzinationen hier zu einer größeren Vielfalt innerhalb der Kontrollgruppe führen würden, was bekanntermaßen ein wirksames Mittel ist, um das Risiko falscher Entdeckungen zu begrenzen. Zweitens, weil gesunde Patienten häufiger in Kohortenstudien aufgenommen wurden, sodass die potenziell verfügbaren Daten zum Trainieren der KI umfangreicher, robuster und konsistenter sind.
Dieses Beispiel veranschaulicht, wie ein bestimmter generativer KI-Algorithmus, der für eine bestimmte Aufgabe geeignet ist, auf unterschiedliche Weise eingesetzt werden kann, mit einer unterschiedlichen Exposition gegenüber den durch Halluzinationen verursachten Risiken.
Obwohl sie nicht erschöpfend sind, bilden diese Verwendungszwecke eine erste Grundlage für eine korrekte Integration generativer KI in den wissenschaftlichen Prozess, da sie Forscher dazu anregen, ihre Verwendung kritisch zu betrachten.
Anmerkungen:
*Generative Künstliche Intelligenz bezieht sich auf Algorithmen, die nicht nur Daten analysieren und Entscheidungen treffen oder Vorhersagen machen können, wie klassische KI-Tools, sondern auch neue Daten generieren können.
*Halluzinationen: treten auf, wenn eine generative KI auf eine Anfrage (auch "Prompt" genannt) reagiert, indem sie Details generiert, die in gewisser Weise plausibel erscheinen, aber entweder falsch sind (z. B. ein Verweis auf einen nicht existierenden Artikel) oder nach bestimmten realen Einschränkungen, die von der generativen KI ignoriert werden, unmöglich sind (z. B. der amerikanische Präsident Abraham Lincoln, der das Internet kommentiert, wie in der Illustration am Anfang des Artikels).
Quelle: CEA IRIG