Die Studie von Daniela Haluza und David Jungwirth vom Zentrum für Public Health der MedUni Wien nutzte OpenAI‘s Generative Pre-Trained Transformer 3 (GPT-3), eine stärkere Version des derzeit bekannten ChatGPT-Chatbots, um das Potenzial von KI für gesellschaftliche Megatrends zu analysieren. Dabei handelt es sich um wichtige globale Probleme wie Digitalisierung, Urbanisierung, Globalisierung, Klimawandel, Automatisierung, Mobilität, globale Gesundheitsprobleme, alternde Bevölkerung, Schwellenmärkte und Nachhaltigkeit. Die Interaktion mit der KI erfolgte durch Eingabe von Fragen, und die generierten Antworten wurden analysiert. Die Studie kam zu dem Ergebnis, dass KI das Verständnis dieser Megatrends erheblich verbessern kann, indem sie Erkenntnisse darüber liefert, wie sie sich im Laufe der Zeit entwickeln und welche Lösungen umgesetzt werden könnten.
„Unsere explorative Studie zeigt, dass die KI GPT-3 leicht verständliche Einblicke in die komplexen und querschnittlichen Angelegenheiten der Megatrends bietet und aufzeigt, wie sie sich in verschiedenen Bereichen verändern und profitieren könnten, wenn KI-Systeme eingesetzt werden“, erklärt Haluza. „Darüber hinaus hat GPT-3 für jeden der zehn gesellschaftlichen Megatrends mehrere Lösungsideen veranschaulicht und Anregungen für die weitere wissenschaftliche Forschung in diesen Bereichen gegeben.“ ergänzt Jungwirth. Das Autor:innenteam stellt fest, dass zwar noch viel Arbeit zu leisten ist, bevor der Einsatz von KI-Tools wie GPT-3 greifbare Auswirkungen auf gesellschaftliche Megatrends haben wird, dass aber viele Anzeichen darauf hindeuten, dass sie bei richtigem Einsatz positive Auswirkungen haben werden. Die Forscher:innen schlagen außerdem vor, dass weiter untersucht werden sollte, wie neue KI-Technologien am besten eingesetzt werden sollen, um diese Herausforderungen zu bewältigen.
Nicht unfehlbar und ethische Diskussion notwendig
Die Studie räumt auch ein, dass KI-Systeme zwar zunehmend ausgereifter werden, aber noch nicht unfehlbar sind und immer noch Fehler machen oder falsche Ergebnisse liefern können. Haluza betrachtet den aktuellen Hype um künstliche Intelligenz aus einer realistischen Perspektive. „Ein Problem ist auch, dass die KI GPT-3 nur brauchbare Antworten liefert, wenn die Frage sehr präzise formuliert ist und auch dann Inhalte einfach erfindet, ohne Kennzeichnung. Garbage In, Garbage Out.“
Die Ergebnisse der Studie legen nahe, dass eine KI für Anwendungsfälle wie das Kürzen und Erstellen von Zusammenfassungen nützlich sein könnte. Die Autor;innen schlagen jedoch vor, dass eine ethische Diskussion über den breiteren Einsatz von KI-Systemen für das Verfassen wissenschaftlicher Forschungsarbeiten höchst überfällig ist und zu angepassten Richtlinien für Zeitschriften führen sollte, möglicherweise zu Beschränkungen für künftige Ko-Autor:innenschaften mit KIs, zur Einführung obligatorischer Tools für die Überprüfung von KI-generierten Inhalten oder zur Verweigerung der Zustimmung zur Mitarbeit an wissenschaftlichen Artikeln durch die KI selbst.