Das grundlegende Ziel für einen sicheren Umgang mit künstlicher Intelligenz ist,
dass letztendlich Menschen die Kontrolle über die Technologie behalten, und zwar nicht einige wenige,
sondern im Idealfall jeder Einzelne. Ohne Einrichtung vielschichtiger Kontrollinstanzen ist es sehr
wahrscheinlich, dass einige wenige Menschen die Kontrolle über die KI-Technologie übernehmen und damit viele
Menschen kontrollieren oder die KI-Technologie uns am Ende selbst kontrolliert. Dieser Ausgang ist logisch
absehbar, wenn man verstanden hat, wie mächtig künstliche Intelligenz schon heute ist und durch den stetigen
Zuwachs an systemischer Komplexität in Zukunft noch werden kann.
Schon heute untergraben viele KI-Technologien unser Recht auf individuelle Selbstentfaltung, indem sie im
Internet kontrollieren, auf welche Informationen wir wie und wann Zugriff haben und damit in hohem Maße
manipulativ sind. „Es geht hier um nicht weniger als unsere wichtigsten verfassungsmäßig garantierten
Rechte.“, wie es treffend in dem Artikel „Das digitale Manifest“ erschienen im Spektrum beschrieben
wird.1
Ein denkbarer Ansatz für mehr KI-Sicherheit könnte aus einer vielschichtigen Kontrolle über die Technologie
durch den Menschen bestehen. Dabei könnten die Gesellschaft, die Politik und die Forschung die drei
Hauptinstanzen darstellen.
Zunächst bedarf es einer allgemeinen Aufklärung über den Einfluss, die Tragweite und die Folgen aktuell eingesetzter und zukünftig möglicher eingesetzter KIs. Diese würde erheblich vorangetrieben werden, durch die Förderung von sachlich-rationalen Diskursen über das Thema. Erreicht werden kann dies auf gesellschaftlicher Ebene durch die Eigeninitiative von Menschen, welche sich über das Thema KI informieren und dann einen Diskurs anstoßen. Dies kann auf jeder Ebene geschehen, egal ob in der Familie, mit Freunden, in Bildungsstätten, im Unternehmen oder als Gesellschaftsumfrage. Durch die Aufklärung und durch anschließende Diskurse, kann die Gesellschaft Forderungen an die Regierung und an die Forschung stellen, welche ihrer Meinung nach wichtig für einen sicheren Umgang mit künstlicher Intelligenz sind. Wer noch mehr zu diesem Ziel beitragen möchte, kann auch darüber nachdenken, seine Karriere entsprechend auszurichten. Ein gutes Leitkonzept bietet das Buch „80,000 hours“ von Benjamin Todd und die dazu passende Internetseite.2
Der Staat sollte gesetzliche Rahmenbedingungen für die Herstellung und den Einsatz von künstlicher Intelligenz schaffen, welche nicht maximalen Profit zum höchsten Ziel machen, sondern die menschliche Sicherheit. Diese sollten in Absprache mit der Gesellschaft, der Forschung und der Ethikkommission beschlossen, stetig überprüft und falls nötig angepasst werden. Ein logischer Ansatz für solche Rahmenbedingungen wäre zum Beispiel der Beschluss, dass zur Herstellung und zum Einsatz von KI-Systemen eine Genehmigung vom Staat benötigt wird, ebenso wie zur Durchführung von Forschungsprojekte zu diesem Thema. Zudem könnte festgelegt werden, dass zur Förderung eines transparenten Einsatzes von KI, diese fortan gekennzeichnet werden muss. Anderweitig könnte der Staat für mehr Sicherheit sorgen, durch die priorisierte Vergabe von Forschungsgeldern für Projekte, welche sich mit der Analyse und Prävention von Risiken der KI-Entwicklung beschäftigen. Eine allgemeine strenge Kontrolle der politischen Aktivitäten sowie von Forschungsprojekten zum Thema KI durch die Ethikkommission, ist ratsam.
Um die Gesellschaft zu unterstützen, sollte die Forschung allgemeine Informationen zum Thema KI, zu den aktuellen Forschungsergebnissen und dem aktuellen Einsatz von KI für alle Menschen zugänglich machen. Wichtig dafür sind das Sammeln, Vereinfachen und auch Übersetzen der Informationen. Es sollte verstärkt Forschung zum Thema KI-Sicherheit betrieben werden, in welcher wichtige gesetzliche Rahmenbedingungen erarbeitet werden können, welche dann an die Politik weitergegeben werden können. Eine weitere wichtige Aufgabe ist die Erforschung der Leidensfähigkeit von künstlich intelligenten Systemen, welche unter der Aufsicht der Ethikkommission und unter Einhaltung festgelegter ethischer Rahmenbedingungen ablaufen sollte. Internationale Forschungskollaborationen können das Risiko eines technologischen Wettrüstens verringern.
1. Helbing et al. (2022). Digitale Demokratie statt Datendiktatur. 17.12.2015,
Spektrum. zuletzt aufgerufen am: 19.10.22
2. Arden Koehler.
How to use your career to help reduce existential risk. 80,000
Hours Website, August 2020. zuletzt aufgerufen am: 19.10.22
3. Ajeya Cotra. Two-year update on my personal AI timelines. Lesswrong,
03.08.2022. zuletzt aufgerufen am: 06.03.23
4. Benjamin Hilton. Preventing an AI-related catastrophe. 80,000 Hours Webseite,
August 2022. zuletzt aufgerufen am: 06.03.23
Thomas Dandekar
Member of the first board of directors
Chair of Bioinformatics
Biozentrum
Am Hubland
D-97074 Wuerzburg
dandekar@biozentrum.uni-wuerzburg.de
Eva-Maria Fischer
Department of Bioinformatics
Biozentrum
Am Hubland
D-97074 Wuerzburg
eva.fischer@uni-wuerzburg.de