Jetzt zum Sommersemester an der TU Hamburg bewerben! Bewerbungen für deutschsprachige und ausgewählte englischsprachige Masterprogramme sind bis zum 15. Januar möglich.

Ein Blick auf die Zukunft der Künstlichen Intelligenz

Juniorprofessor Maximilian Kiener hält Antrittsvorlesung im Rahmen der „Future Lecture“-Reihe

KI-basierte Entscheidungssysteme sind eine große Chance, um unsere Arbeitswelt in Zukunft effizienter zu machen. Welche Bewerber*innen sind geeignet für den Job, den eine Firma gerade ausschreibt? Welche Behandlung brauchen die Patient*innen im überfüllten Wartezimmer beim Hausarzt? Fragen, die KI auf Grundlage von vielen bekannten Daten künftig automatisiert beantworten könnte. Aber was, wenn dabei auch menschliche Vorurteile einfließen und unkontrolliert diskriminierende Entscheidungen treffen?

Eine dystopische Vorstellung, die der Juniorprofessor für Ethik in der Technologie an der Technischen Universität Hamburg Maximilian Kiener nicht zur Realität werden lassen werden möchte. Die Lösung: Schon jetzt nicht nur technische, sondern auch ethische Maßstäbe bei der Entwicklung von KI anzulegen.

Ethische Überlegungen von Anfang an in technologische Innovation einbeziehen

In seiner Antrittsvorlesung unter dem Titel „Ethics in Technology and the Future of Morality“, die an diesem Mittwoch im Rahmen der offenen Veranstaltungsreihe „Future Lectures“ im Audimax II stattfand, erklärte Kiener: So wie jedes Kind bereits von Beginn seines Lebens an den Unterschied zwischen richtig und falsch lerne, müsse dies auch von Beginn an in neue Technologien integriert werden – zum Beispiel durch das so genannte „Reinforcement Learning“, bei dem eine KI durch Feedback und bestimmte positiv bewertete Anreize lernt.

„Ethik ist dabei keine nur optionale, sondern eine unvermeidbare Komponente“, sagt Kiener. „Doch in dieser Unvermeidbarkeit liegt auch die Chance, Ethik und Technologie so zu verzahnen, dass Synergien einen gerechten und nachhaltigen Fortschritt schaffen.“

„ConsentGPT“ statt „ChatGPT“? Roboter könnten Patient*innengespräche übernehmen

Um in diesem Kontext aber auch den Menschen kontinuierlich einzubeziehen und sogenanntes „human oversight“ zu gewährleisten, wie es der EU AI Act nahelegt, schlägt Kiener ein neues Verantwortungsmodell vor. Indem alle, die in Entwicklungen und Gebrauch leistungsfähiger KI einbezogenen sind, sich kontinuierlich verpflichten, Rechenschaft über neue Entwicklungen abzulegen, soll ein offener gesellschaftlicher Dialog darüber möglich sein, welche Art von Technologien Menschen tatsächlich erschaffen wollen.

Ergänzt wurden Kieners Ausführungen von Beiträgen der Gastredner Prof. Dominic Wilkinson, der über den möglichen Einsatz von KI bei Beratungsgesprächen zwischen Ärzt*innen und Patient*innen vor Operationen – genannt „ConsentGPT“ – sprach, und einer moderierten Diskussion mit dem Publikum unter der Leitung von Dr. Andrew Graham (beide University of Oxford).

Über die „Future Lectures“-Reihe

In den öffentlichen „Future Lectures“ präsentieren Forschende der TU Hamburg ihre zukunftsgewandten Forschungsthemen und -ideen. Dabei soll zum einen erklärt werden, welche Herausforderungen auf Gesellschaft und Forschung zukommen, zum anderen aber auch, welche positiven Veränderungen die Forschung die TU Hamburg gesellschaftlich anstoßen könnte.

Mehr erfahren

Gruppenfoto
Foto: C. Bittcher/TU Hamburg.
Unterstützten Prof. Kiener (Mitte) bei seiner Antrittsvorlesung (v.l.n.r.): Dr. Andrew Graham (University of Oxford), Prof. Dominic Wilkinson (University of Oxford), TU-Präsident Andreas Timm-Giel und TU-Vizepräsidentin Forschung Irina Smirnova.
Um diesen Inhalt sehen zu können, müssen Sie die Einbindung externer Inhalte akzeptieren. Mehr erfahren in unserer Datenschutzerklärung