Der Begriff Künstliche Intelligenz (KI) wurde vor mehr als 60 Jahren geprägt durch den US-Informatiker John McCarthy. Er stellte einen Antrag für ein Forschungsprojekt zu Maschinen, die Schach spielten, mathematische Probleme lösten und selbstständig lernten. Im Sommer 1956 stellte er seine Erkenntnisse anderen Wissenschaftlern vor. Der britische Mathematiker Alan Turing hatte sechs Jahre zuvor bereits den "Turing Test" entwickelt, der bestimmen kann, ob das Gegenüber ein Mensch ist oder eine Maschine, die sich als Mensch ausgibt.
Doch dauerte es Jahrzehnte, um die KI-Forschung voranzubringen, weil dafür deutlich höhere Rechenleistungen nötig waren. Mitte der 90er Jahre war es soweit und Wissenschaftler widmeten sich Aufgaben wie der Bilderkennung. Nach und nach wurden künstliche neuronale Netze entwickelt, die Informationen wie Sprache und Bilder aufnehmen, Muster erkennen und eigene Lösungen entwickeln.
Künstliche Intelligenz ist heute Teil des Alltags, ob als Suchmaschinen, als smarte Sprachassistenten, bei medizinischen Diagnosen oder bei selbstfahrenden Fahrzeugen. Diskutiert wird über Pflege- sowie über Kriegsroboter. Im debattierten die Vereinten Nationen über den Umgang mit Killerrobotern, die autonom über Militäreinsätze entscheiden. (epd)
26.02.2021
Mit Physik, Neurobiologie und Informatik trafen sich in einer Anhörung des Deutschen Ethikrats mehrere komplexe Wissenschaften. Die angesprochenen Fragen waren indes nah am Alltag. Und auch die Risiken haben die Forscher im Blick.
Sensoren, die Gedanken direkt aus dem Gehirn eines Epilepsie-Patienten in gesprochene Worte umwandeln. Detektoren, die Muskelaktivitäten messen und darüber lautlose Kommunikation ermöglichen. Was klingt wie Science Fiction, ist Gegenstand aktueller kognitiver Forschung. Über die Chancen, die in medizinischer und gesellschaftlicher Hinsicht in diesen Entwicklungen liegen, sprach der Deutsche Ethikrat am Donnerstag in einer öffentlichen Anhörung.
Risiken im Blick
Auch die Risiken haben die Forscher im Blick. Menschen, die nicht mehr sprechen können, wieder eine Stimme geben, oder auch weniger Lärmbelästigung durch Telefonieren im Zug: durchaus erstrebenswerte Ziele. Tanja Schultz, Professorin für Kognitive Systeme an der Universität Bremen, forscht an entsprechenden Möglichkeiten im Bereich der Künstlichen Intelligenz (KI).
Vielen Menschen, sagt sie, sei nicht klar, wie stark Sensoren schon heute im Alltag präsent sind: in Smartphones und Navigationsgeräten, aber auch InEar-Kopfhörern, neuartigen Hörgeräten oder Gadgets wie dem "Echo-Loop" von Amazon. Welche Daten über Bewegungen und soziale Kontakte des Nutzers wem auf welchem Weg zur Verfügung stehen, sei oft intransparent, kritisiert Schultz.
Für die Wissenschaftler sei es eine Herausforderung, Systeme wie Sprachprothesen technisch stabil zu gestalten, aber auch so, dass sie den Grundrechten entsprechen. Allerdings könne die Forschung nicht kontrollieren, was große Unternehmen aus diesen Entwicklungen machten. Oder auch Regierungen: Schultz verweist etwa auf Versuche chinesischer Behören, in Fabriken sogenanntes Brain-Scanning durchzuführen. "Wir können nicht verhindern, wofür Künstliche Intelligenz alles eingesetzt wird", sagt die Wissenschaftlerin.
Auch Stefan Remy, Neurobiologe in Magdeburg, beschreibt einen Zwiespalt. Schon heute verbesserten KI-Anwendungen die Lebensqualität von Parkinson-Patienten, erklärt er. In dem Hype um derartige Möglichkeiten sehe er jedoch eine Gefahr: So könnte sogenanntes Human Enhancement wohlhabenden Gruppen vorbehalten bleiben. Auch würden momentan grundlegende wissenschaftliche Prinzipien in Frage gestellt - durch das, was Remy einen "technologiebegründeten Machbarkeitsanspruch" nennt. So strebe man etwa danach, das Gehirn auszulesen, ohne zu verstehen, wie es funktioniert.
Verunsicherung wegen künstlicher Intelligenz
Der Erfolg gebe dieser Sichtweise bisweilen recht, sagt Remy. Zugleich gehe es vielen Konzernen - und Geldgebern - aber eben nicht allein um die Heilung von Krankheiten, sondern um eine möglichst breite Anwendung bestimmter Angebote. Aufgabe der Wissenschaft sei es, diese Risiken im Blick zu haben und die Bevölkerung darüber aufzuklären.
Viele Menschen blickten verunsichert auf KI, sagt auch Ulrike von Luxburg. Es brauche daher mehr Regulierung von staatlicher Seite und mehr Transparenz, betont die Tübinger Professorin für Theorie des Maschinellen Lernens. Entscheidend sei die Frage, welche Anwendungen die Gesellschaft nutzen wolle - und wie diese ausgestaltet seien.
Diese Frage stellt sich nicht nur im medizinischen Bereich. Automatische Textanalyse führt bisweilen Stereotype weiter, Algorithmen sortieren Nachrichten vor, die Polizei in den USA setzte bereits Programme ein, die die Wahrscheinlichkeit einer erneuten Straftat von Gefängnisinsassen beurteilen sollen. "Das geht zu weit", sagt von Luxburg. "Ein Algorithmus kann nicht darüber entscheiden, ob jemand ins Gefängnis geht."
Häufig laute die Frage in der öffentlichen Diskussion: "Wie kommt Ethik in die KI?", hat die Wissenschaftlerin beobachtet. "Aber KI kann nicht perfekt werden." Insofern müsse die Frage, was technisch überhaupt möglich sei, stärker in den Fokus rücken: "Denn nicht alles, was ethisch wünschenswert ist, ist technisch umsetzbar."
Auch Menschen haben Vorurteile, treffen falsche Entscheidungen oder handeln unethisch. Dennoch trage jeder Verantwortung, der ein neues System in die Welt hineinsetze, mahnt der Tübinger Informatiker Matthias Bethge. Schon bei der Grundlagenforschung müsse man sich fragen, welche positiven und negativen Effekte wahrscheinlich sind.
"Jede Anwendung hat Auswirkungen auf unsere Lebenswirklichkeit", betont Bethge.
Der Begriff Künstliche Intelligenz (KI) wurde vor mehr als 60 Jahren geprägt durch den US-Informatiker John McCarthy. Er stellte einen Antrag für ein Forschungsprojekt zu Maschinen, die Schach spielten, mathematische Probleme lösten und selbstständig lernten. Im Sommer 1956 stellte er seine Erkenntnisse anderen Wissenschaftlern vor. Der britische Mathematiker Alan Turing hatte sechs Jahre zuvor bereits den "Turing Test" entwickelt, der bestimmen kann, ob das Gegenüber ein Mensch ist oder eine Maschine, die sich als Mensch ausgibt.
Doch dauerte es Jahrzehnte, um die KI-Forschung voranzubringen, weil dafür deutlich höhere Rechenleistungen nötig waren. Mitte der 90er Jahre war es soweit und Wissenschaftler widmeten sich Aufgaben wie der Bilderkennung. Nach und nach wurden künstliche neuronale Netze entwickelt, die Informationen wie Sprache und Bilder aufnehmen, Muster erkennen und eigene Lösungen entwickeln.
Künstliche Intelligenz ist heute Teil des Alltags, ob als Suchmaschinen, als smarte Sprachassistenten, bei medizinischen Diagnosen oder bei selbstfahrenden Fahrzeugen. Diskutiert wird über Pflege- sowie über Kriegsroboter. Im debattierten die Vereinten Nationen über den Umgang mit Killerrobotern, die autonom über Militäreinsätze entscheiden. (epd)