KI und Ethik: Interview mit Francesca Rossi, IBM Fellow

Transparenz

Angesichts des fortschreitenden Wandels in Unternehmen durch künstliche Intelligenz (KI) sprach Techopedia mit Francesca Rossi, einer IBM Fellow und prominenten Verfechterin der Ethik-KI, über die zum Nachdenken anregende Perspektive der Integration menschlicher Werte in den Kern von KI-Systemen.

Rossi erläuterte den Ansatz von IBM zur Förderung von KI und ihre Strategien zur Verbesserung der Intelligenz, zum Schutz der Eigentumsrechte an Daten und zur Gewährleistung der Transparenz in der KI-Technologie.

Hier erfahren Sie mehr über das Engagement von Rossi und IBM gegen Vorurteile in der KI und die entscheidende Rolle von ethischen Praktiken bei der Unterstützung von Innovationen.

Über Francesca Rossi

Francesca Rossi
Francesca Rossi

Francesca Rossi ist ein IBM Fellow und AI Ethics Global Leader. Außerdem ist sie GPAI-Expertin und Mitglied des Lenkungsausschusses, IEEE-Mitglied des Führungsgremiums der KI-Ethik-Initiative und Ko-Vorsitzende des Global Future Council von WEF (Weltwirtschaftsforum) zu KI für die Menschheit. Sie ist Mitverfasserin des ACM TechBrief: Generative Artificial Intelligence.

Ihre Forschungsprojekte zielen auf die Einbettung menschlicher Werte in KI-Systeme ab.

Rossi betont die Bedeutung gemeinsamer Anstrengungen auf dem Weg in eine Zukunft, in der KI entwickelt und – hoffentlich – verantwortungsvoll eingesetzt wird.

Wichtigste Erkenntnisse

  • IBM verfolgt einen einheitlichen Ansatz in Bezug auf die KI-Ethik, der menschliche Intelligenz, Dateneigentumsrechte und eine transparente, erklärbare Technologie umfasst.
  • IBM setzt sich mit KI-Vorurteilen auseinander, indem es gemischte Entwicklerteams unterstützt und Open-Source-Tools wie AI Fairness 360 zur Förderung von Gerechtigkeit und Inklusivität in KI-Modellen schafft.
  • Die ethischen KI-Praktiken von IBM, einschließlich ihrer Open-Source-Beiträge und der watsonx-Plattform, sind ein Beispiel dafür, wie ethische Erwägungen eine nachhaltige und verantwortungsvolle technologische Innovation beschleunigen können.
  • Rossi betont die Notwendigkeit proaktiver, gemeinsamer Bemühungen im Bereich der KI, an denen Unternehmen, Regierungen, Hochschulen und Privatpersonen gleichermaßen mitwirken, um eine verantwortungsvolle Nutzung und Entwicklung von KI-Technologien sicherzustellen.

Frage: Wie geht IBM bei der Entwicklung und Umsetzung von ethischen KI-Prinzipien in seiner Geschäftstätigkeit vor?

Antwort: Wir haben eine zentralisierte interne Governance. Das bedeutet, auch wenn IBM ein globales Unternehmen mit Niederlassungen auf der ganzen Welt ist, handelt es sich bei der zentralisierten Verwaltung der KI-Ethik und -Grundsätze um konkrete Maßnahmen, die unabhängig vom Unternehmensstandort gleich sind.

Wir bewerten die Risiken spezifischer KI-Lösungen, die wir unseren Kunden anbieten, um zu verstehen, ob sie mit unseren Prinzipien übereinstimmen.

Dies ist der erste Schritt auf dem Weg zur KI-Ethik, den eine Organisation gehen kann.

Es ist ein guter Ausgangspunkt, der das Szenario vorgibt, wohin man gehen will. Unsere Grundsätze besagen zum Beispiel, dass KI die menschliche Intelligenz ergänzen und nicht ersetzen sollte.

Damit ist nicht gemeint, dass keine Aufgabe automatisiert werden sollte, aber wir sollten diese Technologie nutzen, um unsere Fähigkeiten, Intelligenz, Kreativität und Problemlösungsfähigkeit zu erweitern.

Wir sind auch der Meinung, dass die Daten demjenigen gehören, der sie erstellt und erzeugt hat, und nicht demjenigen, der sie nutzt. Da IBM ein B2B-Unternehmen ist, sind unsere Kunden keine Privatpersonen.

Unsere Kunden sind andere Unternehmen. Wenn wir also etwas für einen Kunden tun, werden die Erkenntnisse und Daten, die wir für diesen Kunden nutzen, nicht für einen anderen Kunden wiederverwendet. Diese Daten bleiben also dort.

Ein weiterer Grundsatz ist, dass die Technologie, einschließlich der KI, erklärbar und transparent sein sollte. Ausgehend von diesen Prinzipien haben wir uns also auf Transparenz, Erklärbarkeit, Robustheit und Datenschutz konzentriert.

Und jetzt, mit generativer KI, auf die verantwortungsvolle Generierung von Inhalten und ihre gesellschaftlichen Auswirkungen.

Eines der wichtigsten Dinge, die wir im Laufe der Jahre gelernt haben, ist, dass ein Tech-Unternehmen bei einem technologischen Problem oft sagt, dass das Problem nur mit noch mehr Technologie gelöst werden kann.

Man sagt also: „Es gibt ein Problem mit KI“, und dann heißt es, man solle das Problem mit KI lösen. Das Schwierigste ist jedoch, die Denkweise der Menschen zu ändern, die die Technologie entwickeln.

Bis vor ein paar Jahren war jeder Programmierer daran gewöhnt, nur an die Technologie zu denken und nicht an die gesellschaftlichen Folgen.

Die Teams wussten nicht, was es bedeutet, voreingenommen zu sein oder aufgrund von Vorurteilen in den Daten oder im Entwicklungsprozess eine Diskriminierung zu verursachen.

Wir mussten ihnen also helfen zu verstehen. Dies erreichten wir durch Schulungen, Design-Thinking-Sitzungen und die Bedeutung all dieser Dinge für ihre tägliche Arbeit.

Potenzielle Vorurteile bei KI

Frage: Wie geht IBM mit potenziellen Vorurteilen in KI-Systemen um, und welche Strategien gibt es, um Fairness und Inklusivität in KI-Modellen zu gewährleisten?

Antwort: Bei traditionellen Ansätzen des maschinellen Lernens können Vorurteile oder mögliche Verzerrungen hinzukommen.

Diese müssen abgemildert werden, da sie zu Lösungen für das maschinelle Lernen führen können, die eine Diskriminierung zwischen verschiedenen Personengruppen bewirken.

Trainingsdaten können mit Variablen korrelieren, die wir als Menschen nicht sehen.

Trotzdem können die Technologie und die Trainingsschritte des maschinellen Lernens gefunden und bei der Entscheidungsfindung verwendet werden.

Jede Phase der Entwicklung, vom Training über das Testen bis hin zur endgültigen Lösung, kann von Vorurteilen begleitet sein.

Diese Maschinen können Vorurteile enthalten, weil wir, Menschen, voreingenommen sind. Und wir sind uns dessen nicht einmal bewusst.

Wir neigen unbewusst zu Vorurteilen. Wir haben so viele verschiedene kognitive Verzerrungen, wenn wir Entscheidungen treffen.

Deshalb finden wir diese Voreingenommenheit in den Trainingsdaten; wir könnten sie in jeder Entscheidung der Entwickler finden.

Wichtig ist, dass die Teams so vielfältig wie möglich sind, mit unterschiedlichen Hintergründen, Geschlechtern und Kenntnissen, damit sie bei ihren Entscheidungen die Voreingenommenheit der anderen entdecken können.

Frage: Können Sie Beispiele dafür nennen, wie die ethischen KI-Praktiken von IBM die KI-Branche beeinflusst und sogar neue Standards für andere gesetzt haben?

Antwort: IBM hat AI Fairness 360 entwickelt, das auch an die Linux Foundation gespendet wurde. Es ist quelloffen, enthält viele KI-Tools, die bereits entwickelt wurden, und steht jedem zur Verfügung, der ethische KI bauen möchte.

Außerdem haben wir weitere Toolkits für Erklärbarkeit, Fairness, Robustheit und Datenschutz geschaffen, die öffentlich zugänglich sind.

Inzwischen gibt es eine Tendenz zur Veröffentlichung von Open-Source-Lösungen, um einige der Risiken, die die Technologie mit sich bringt, zu beseitigen.

Damit wird aber auch sichergestellt, dass die Technologie für alle zugänglicher wird, auch für die Wissenschaft, die über weniger Ressourcen verfügt als die Unternehmen.

Wichtig ist, den Fortschritt richtig voranzutreiben und das Machtungleichgewicht zu vermeiden – zwischen denjenigen, die über die Ressourcen zur Entwicklung und Nutzung der Werkzeuge verfügen, und denjenigen, die sie nicht haben.

Entscheidend ist, eine bessere Zugänglichkeit zu gewährleisten, um die Entwicklung von KI-Fähigkeiten zu optimieren und voranzutreiben und gleichzeitig das Verständnis und die Erarbeitung von Risikominderungsmaßnahmen zu beschleunigen.

Gesellschaftliche Herausforderungen der KI

Frage: Gibt es weitere ethische oder gesellschaftliche Herausforderungen, die Ihrer Meinung nach in den nächsten Jahren an Bedeutung gewinnen werden?

Antwort: Wir wissen, dass generative KI-Systeme nur schwer erkennen können, was falsch und was wahr ist, und daher Inhalte erzeugen können, die nicht der Realität entsprechen.

Diese sogenannten Halluzinationen können auch Inhalte generieren, die nicht mit bestimmten Werten übereinstimmen.

Die Tatsache, dass sie Fehlinformationen oder Informationen erzeugen können, die nicht wahr sind, ist sicherlich etwas, auf das man sehr sorgfältig achten muss.

Ein weiteres Risiko sind Deepfakes. Natürlich können diese Systeme Bilder oder Videos erstellen, die von den echten kaum zu unterscheiden sind. Wir müssen also verstehen, wie wir solche Fälle mit Strategien angehen können.

Das Risiko bei der KI besteht darin, dass sie für viele verschiedene Zwecke eingesetzt werden kann. Einige können sehr risikoreich sein, andere wiederum sehr banal.

Ein geringes Risiko könnte die Entscheidung sein, welcher Film auf Netflix empfohlen wird. Aber das ist eine andere Ebene des Risikos als eine Empfehlung, welche Therapie für einen Patienten geeignet ist.

Beide können jedoch auf dem gleichen Verfahren und Grundmodell aufbauen.

Daraus schließe ich, dass sich die Regulierung auf die Anwendungen und nicht auf die vorgeschaltete Technologie konzentrieren sollte.

Es gibt also diese zusätzlichen Herausforderungen im Zusammenhang mit den Möglichkeiten der Technologie, aber auch die Grenzen und politischen Fragen, die diese neue Welle der KI noch komplexer machen.

Frage: Was sollten Unternehmen tun, um den Einsatz generativer KI verantwortungsvoll voranzutreiben?

Antwort: IBM hat vor kurzem eine neue Plattform namens watsonx vorgestellt, die unseren Kunden beim Aufbau einer KI-Lösung helfen soll. Diese Plattform besteht aus drei Komponenten.

Die erste heißt watsonx.data und konzentriert sich auf Daten, die für jeden Ansatz des maschinellen Lernens wichtig sind.

Die zweite Komponente heißt watsonx.ai, mit der man den Ansatz des maschinellen Lernens und eine Lösung entwickelt.

Die dritte Komponente schließlich heißt watsonx.governance, wo alles untergebracht ist, was wir über KI-Ethik gelernt haben.

Die Governance muss genauso wichtig sein wie die beiden anderen Teile. Sie sollte nicht eine zusätzliche Aufgabe sein, die „nett zu haben“ ist. Sie muss ein integraler Bestandteil sein, genau wie die Daten und die Entwicklung der KI-Lösung.

Ein weiterer Punkt, den die Unternehmen bedenken sollten, ist die Auffassung, dass die KI-Ethik sie manchmal am Geldverdienen hindert. Aber das ist sehr kurzsichtig.

Sie sollte den Weg zur richtigen Art von Innovation nicht verlangsamen, sondern beschleunigen.

Innovation muss verantwortungsvoll sein. Andernfalls wird sie alle möglichen Arten von Chaos verursachen und vielen Akteuren in der Gesellschaft Schaden zufügen.

Die KI-Ethik geht also nicht in eine andere Richtung als der Profit, sondern in dieselbe Richtung, um aus der richtigen Art von Innovation Gewinn zu ziehen.

Jüngste Studien haben gezeigt, dass Unternehmen, die sich diese Einstellung zu eigen machen, erfolgreicher sind als solche, die auf Schleichwegen beharren.

Auf dem Laufenden bleiben

Frage: Wie sollten sich Organisationen und Privatpersonen über die ethischen Implikationen der sich rasch entwickelnden KI-Technologien informieren?

Antwort: Wir entwickeln viele Bildungsmaterialien intern bei IBM, aber wir arbeiten auch extern. Wir kooperieren mit Coursera, um Module für die Ausbildung von Nutzern zu Themen wie KI-Ethik und Erklärbarkeit bereitzustellen.

Vor kurzem haben wir in watsonx einen Risikoatlas aufgenommen.

Diese Informationen werden dann in eine Online-Tabelle umgewandelt, die die Kunden im Internet unter Berücksichtigung der Risiken im Zusammenhang mit der Inhaltserstellung durchsuchen können.

Es ist wichtig, das Bewusstsein zu schärfen, denn viele Dinge gehen schief, wenn KI nicht angemessen eingesetzt wird oder man sich ihrer derzeitigen Grenzen und Risiken nicht im Klaren ist.

Frage: Was stimmt Sie hoffnungsvoll für die Zukunft?

Antwort: Wir müssen zusammenarbeiten. In den letzten zehn Jahren habe ich gesehen, wie wir uns von einer kleinen Gruppe von Menschen, die darüber nachdachten, was KI-Ethik bedeutet, zu einem Ort entwickelt haben, an dem sie überall zu finden ist.

Aber für die Zukunft müssen wir zusammenarbeiten, und zwar ganz bewusst.

Bei einem passiven Ansatz warten wir auf die Probleme und bessern dann nach. Wir müssen jedoch proaktiv, zielgerichtet und kooperativ sein.

Diese Open-Source-Tendenz oder das offene Innovationsökosystem ist für alle von Bedeutung.

Nicht nur diejenigen, die über genügend Ressourcen zur Teilnahme an der KI-Revolution verfügen, sollten die Möglichkeit haben, ihre Talente zur Weiterentwicklung der KI und zur Förderung eines verantwortungsvollen Einsatzes dieser Technologie einzubringen.

Unternehmen spielen dabei eine wichtige Rolle, aber auch Regierungen, Normungsgremien, Hochschulen und Ausbilder für die nächste Generation, die KI-Systeme entwickeln und nutzen wird.

Darüber hinaus muss jeder von uns in seinem eigenen Leben sorgfältig darüber nachdenken, wie er die Technologie am verantwortungsvollsten einsetzt und welche Auswirkungen die Technologie auf unser Leben hat.

Verwandte Begriffe

In Verbindung stehende Artikel

Neil C. Hughes
Tech Journalist
Neil C. Hughes
Tech Journalist

Neil ist ein freiberuflicher Tech-Journalist mit über zwei Jahrzehnten IT-Erfahrung. Er wurde als einer der Top Voices in Technology von LinkedIn gefeiert und vom CIO Magazine und ZDNet für seine einflussreichen Einblicke anerkannt. Neil hat für Publikationen wie INC, TNW, TechHQ und Cybernews geschrieben und moderiert außerdem den beliebten Tech Talks Daily Podcast.