Generative KI für alle? Zwischen Effektivität und Verantwortung
Wir veröffentlichen die neue Ausgabe des Forschungsmonitors (fyi 16)
„Hallo ChatGPT, schlage drei Überschriften für die Pressemitteilung zur neuen Ausgabe des Forschungsmonitors der Landesanstalt für Medien NRW vor. Das Thema: Die Chancen und Risiken von generativer KI. Nicht mehr als zwei Zeilen.“
Suchanfragen oder „Prompts“ wie dieser gehören inzwischen zum Arbeits- und privaten Alltag vieler Menschen, die generative künstliche Intelligenz (KI) nutzen. Kein Wunder, denn die Technologie ermöglicht jedem Menschen mit einem Internetzugang, neue Inhalte wie Texte, Bilder, Stimmen und Musik zu erstellen. Die Möglichkeiten zur automatisierten Content-Erstellung und Wissensvermittlung verändern die Art und Weise, wie wir mit Informationen umgehen grundlegend – so sehen es Befürworter von KI. Doch generative KI birgt auch Risiken: Deepfakes, Deepfake Porn und Desinformation sind nur einige Beispiele dafür, wie KI-Inhalte zur Gefahr sowohl für jeden Einzelnen als auch für die Demokratie werden.
Im neuen Forschungsmonitor (fyi 16) „Generative KI für alle? Ein Balanceakt zwischen Effektivität und Verantwortung“ ordnen die fyi-Forschenden ein, wie generative KI unsere Gesellschaft herausfordert und wie der Balanceakt zwischen schnellen Ergebnissen und verantwortungsvoller Nutzung gelingt.
Generative KI: Innovation mit Missbrauchspotenzial
Wo auch immer KI eingesetzt wird, entsteht Raum für Innovation. Keine andere Technologie kann so schnell große Datenmengen analysieren und daraus selbstständig neue Inhalte in Text-, Bild-, Audio- oder Videoform generieren. Der neue Forschungsmonitor zeigt die zahlreichen Chancen, die generative KI zweifellos bietet, auf: Sie steigert die Produktivität, inspiriert menschliche Kreativität und optimiert Prozesse in verschiedenen Arbeitsfeldern. So zum Beispiel im Journalismus. Dort vereinfacht Automatisierung u. a. die Recherche, die Produktion und Distribution von journalistischen Inhalten (siehe fyi 13).
Allerdings weisen die Forschenden auch darauf hin, dass generative KI – wie jede Technologie – missbraucht werden kann. Das wohl bekannteste Einsatzfeld in diesem Zusammenhang sind „Deepfakes“ – täuschend echt wirkende Bilder und Videos, die falsche Informationen vermitteln können: „Deepfakes haben das Potenzial, Menschen so zu täuschen, dass sie falsche Inhalte für echt halten. Solche Täuschungen können politisches Verhalten beeinflussen, etwa bei einer Wahlentscheidung oder der Frage, wie stark ein Politiker oder eine Politikerin von der Öffentlichkeit unterstützt wird“, betont Dr. Teresa Weikmann, Postdoktorandin an der Amsterdam School of Communication Research, im fyi-Interview.
Generative KI ist hier, um zu bleiben – wie können wir ihre Risiken eindämmen?
Neben klaren Regeln und Schutzmechanismen wie dem bereits verabschiedeten AI Act der Europäischen Union, empfehlen die Forschenden Bildungsprogramme, die die Medienkompetenz der Nutzerinnen und Nutzer von KI stärken. Plattformen sollten verpflichtet werden, Inhalte aktiv zu überwachen, und KI-Tools müssen deutlich machen, wann sie im Einsatz sind. Nur so können wir Desinformation besser eindämmen und das Vertrauen in KI-Inhalte stärken. Am Ende geht es darum, dass Menschen selbstbestimmt und informiert mit dieser neuen Technologie umgehen können.
In der aktuellen Ausgabe des Forschungsmonitors haben Kommunikationswissenschaftlerinnen und -wissenschaftler der Ludwig-Maximilians-Universität München sechs Studien analysiert und Lösungsansätze für den Umgang mit generativer KI präsentiert. Ergänzt wird dies durch das fyi-Interview mit Dr. Teresa Weikmann von der Amsterdam School of Communication Research.
Der komplette fyi 16 ist zum Nachlesen und zum Download ab sofort auf unserer Website verfügbar. Viel Spaß beim Lesen!
Die Seiten-Url wurde in der Zwischenablage gespeichert.