Neuer KI-Rat soll Googles ethische Richtlinien umsetzen

27.03.2019

Neuer KI-Rat soll Googles ethische Richtlinien umsetzen

Google holt sich acht Experten aus Wissenschaft, Wirtschaft und Politik zu Hilfe, um seine eigenen Machine-Learning-Projekte mit den selbst aufgestellten Regeln kompatibel zu machen. KI soll demnach ethisch fair sein und Privatsphäre respektieren.

Artikel veröffentlicht am 27. März 2019, 10:35 Uhr, Oliver Nickel

Googles KI-Rat soll das Unternehmen unterstützen. Um seine im vergangenen Jahr aufgestellten KI-Regeln zu etablieren, hat Google eine Gruppe von Spezialisten gegründet, die als Advanced Technology Eternal Advisory Council (Ateac) bezeichnet werden. Insgesamt acht Personen aus dem wissenschaftlichen Umfeld sollen im Jahr 2019 vier Mal eine Tagung abhalten und Google bei der Umsetzung ihrer eigens aufgestellten Regeln helfen. Die erste Sitzung ist für April 2019 geplant.
"Diese Gruppe wird einige von Googles komplexesten Herausforderungen berücksichtigen, die unter den KI-Prinzipien auftreten".
Dazu zählt das Unternehmen Gesichtserkennung und Gleichberechtigung beim Trainieren von Machine-Learning-Systemen. Obwohl der Fokus primär auf Googles eigenem Interesse liegt, will das Unternehmen seine Erfahrungen teilen.
"Wir werden weiterhin Ideen austauschen und Feedback von Partnern und Organisationen in der Welt sammeln", schreibt Kent Walker, Googles Bereichsleiter für globale Beziehungen. Die acht Mitglieder sind zum Großteil an Universitäten tätig. Es befinden sich Informatiker, Diplomaten und Ökonomen darunter. Sie stellen sich selbst als Experten in den Bereichen Wirtschaft, Privatsphäre, computergestützte Mathematik, Spracherkennung, Musiktechnik, Psychologie, KI-Ethik und Politik dar. In seinem Blog-Post stellt Google die fünf Männer und drei Frauen genauer vor.
Regeln als Reaktion auf Militärprojekt - Googles KI-Prinzipien, die bereits 2018 vorgestellt wurden, sollen größtenteils ethische Probleme bei der Entwicklung von KI-Software lösen. So sollen Algorithmen einen sozialen Nutzen haben, möglichst Vorurteile bezüglich Geschlecht, Herkunft, Ethnie und sexueller Orientierung vermeiden, sicher sein, die Privatsphäre nicht beeinträchtigen und auch für Dinge genutzt werden, die diesen Prinzipien entsprechen.
Dabei war 2018 auch das Jahr, in dem Google-Mitarbeiter gegen das eigene Projekt Maven protestiert haben, das Militärdrohnen mit Bilderkennung ausstatten sollte. Im Juni gab Google bekannt, dass das Unterfangen auslaufen werde, kurz darauf präsentierte CEO Sundar Pichai die genannten Regeln.


Datenschutzerklärung