Kann KI voreingenommen sein?

Categories: InsightsTechnology

Was macht einen Algorithmus, ähnlich wie einen Menschen, voreingenommen? Kann er Entscheidungen treffen, ohne objektiv zu sein? Eine der Herausforderungen bei der Entwicklung künstlicher Intelligenz besteht darin, ihre Unparteilichkeit zu gewährleisten. Dies erweist sich als besonders wichtig in Bereichen, in denen das Ergreifen einer Maßnahme auf Fakten und sachlichen Gründen beruhen muss.

Unparteiische künstliche Intelligenz

Die Entwicklung der künstlichen Intelligenz steht in direktem Zusammenhang mit unserem Streben nach Perfektion und Unfehlbarkeit. Die jahrhundertelange Geschichte der Zivilisation hat uns gelehrt, dass es keine perfekten Menschen gibt, die frei von Fehlern sind. Selbst der beste Spezialist auf seinem Gebiet mit jahrelanger Berufserfahrung und umfangreichem Wissen kann manchmal eine falsche Entscheidung treffen. Inzwischen sehen wir in Algorithmen die Lösung und hoffen, dass sie immer die richtigen Entscheidungen treffen können. Damit dies jedoch möglich ist, muss die KI unparteiisch und frei von jeglicher Voreingenommenheit sein. Dies ist derzeit eine der größten Herausforderungen im Zusammenhang mit der Entwicklung und Verbreitung von Technologien in verschiedenen Branchen.

Entgegen dem Anschein ist es recht einfach, einen Algorithmus, der ohne Emotionalität und nur auf der Grundlage von Fakten arbeiten soll, dazu zu bringen, sich in einer bestimmten Rolle ähnlich zu verhalten wie sein menschliches Gegenstück. Er sollte bestimmte Lösungen oder Personen bevorzugen und bei seinen Entscheidungen bestimmte Vorlieben haben. Dies ist das Problem der voreingenommenen KI, die in der Phase des Lernens und der Interpretation der erhaltenen Informationen subjektive Beobachtungen macht und auf der Grundlage dieser Beobachtungen das ursprüngliche Ziel, das sie erreichen sollte, verfälscht. Das maschinelle Lernen hat zwar ein enormes Potenzial, ist aber auch nicht frei von Schwächen - die Vorhersagen gehen nicht über den Rahmen hinaus, der beim Lernen auf der Grundlage der zur Analyse bereitgestellten Daten entwickelt wurde. Und diese können ziemlich verzerrt sein, manchmal sogar auf den ersten Blick unmerklich, so dass ein falsches Bild der Realität entsteht.

Voreingenommene KI bedeutet eine Herausforderung

Warum erfordert das Problem der voreingenommenen KI eine sofortige Reaktion und Maßnahmen von Menschen und Organisationen, die Technologien entwickeln? Die Folgen des Ignorierens des Problems sind jetzt leicht zu erkennen, wenn unangemessene, fehlerhafte und diskriminierende Handlungen von Algorithmen bei Tests oder Simulationen beobachtet werden.

  • Autonome Autos, deren Systeme Rollstuhlfahrer nicht erkennen.
  • Ein Gesichtserkennungssystem, das nur Benutzer mit einer bestimmten Hautfarbe identifiziert.
  • Ein Industrieroboter, der Informationen über einen Druckanstieg im Kühlsystem ignoriert.
  • Ein Patientenklassifizierungsalgorithmus, der Menschen aus bestimmten sozialen Gruppen oder Vertreter einer bestimmten Rasse diskriminiert.
  • Ein System, das Versicherungsprämien auf der Grundlage der Annahme berechnet, dass Frauen schlechtere Fahrer sind und eher Unfälle verursachen.

In vielen Branchen ist voreingenommene KI eine Herausforderung, die die Einführung industrieller Automatisierungslösungen oder Connected-Car-Technologien länger und komplizierter macht.

Die oben genannten Beispiele zeigen sehr deutlich, welche Auswirkungen es hat, wenn dieses Problem unterschätzt wird. In vielen Fällen ist die Zulassung einer partiellen KI nicht das Ergebnis eines bösen Willens der Urheber oder ihrer respektlosen Haltung gegenüber dem Problem. Die Situation entsteht oft aus der Schwierigkeit, das Problem zu erkennen - es erfordert eine vorherige Klärung, nach welcher Art von "vorurteilsbehaftetem Verhalten" wir auf Seiten der KI suchen, und eine anschließende Analyse eines größeren Datenbestands aus ihrer Arbeit. Konstrukteure und Ingenieure müssen daher bei der Entwicklung neuer Algorithmen bereits bestehende Vorurteile berücksichtigen und Systeme kontinuierlich auf potenziell neue und bisher unbekannte Systeme testen, um deren Verbreitung und Ausbreitung zu verhindern.

Wie Künstliche Intelligenz lernt

Die rasante Entwicklung von Technologien wie Machine Learning und Deep Learning trägt dazu bei, die Zahl der Anwendungen künstlicher Intelligenz zu erhöhen. Alle Arten von Industriemaschinen und persönlichen Robotern verändern und prägen unsere moderne Welt. Entscheidungsalgorithmen finden sich in der Medizin- und Automobilbranche, an der Basis von Industrie 4.0 oder in der breit verstandenen Logistik, in der beispielsweise Smart Ports entwickelt werden. Überall besteht die Gefahr, dass die für das KI-Lernen zur Verfügung gestellten Daten das Bild der Realität verzerren und in Zukunft zu einer Verzerrung führen. Und das wiederum kann zu Situationen führen, gegen die die Implementierung von Algorithmen helfen sollte, wie Vorurteile gegenüber bestimmten Mitarbeitergruppen oder menschliche Fehler bei der Arbeit, Systemsteuerung oder sogar beim normalen Autofahren.

Die künstliche Intelligenz ist noch nicht so weit, dass sie Daten so frei interpretieren, argumentieren und Schlussfolgerungen ziehen kann wie das menschliche Gehirn. Sie kommt nicht so gut mit unerwarteten Situationen zurecht, die unkonventionelle Entscheidungen erfordern. In Anbetracht dieser Herausforderungen, die eine voreingenommene KI mit sich bringt, wird weiter an der Entwicklung geeigneter Schulungsmaterialien für die Systeme gearbeitet. Datenbanken, die ein objektives Abbild der Realität darstellen und alle Merkmale der Welt, der in ihr ablaufenden Prozesse und der daran beteiligten Menschen berücksichtigen. Ziel der Arbeit ist es, ideale Ziele für Lernalgorithmen zu entwickeln und Situationen zu minimieren, in denen sie durch ungeeignete voreingenommene Determinanten ersetzt werden.

Auf dem Weg zu objektiver künstlicher Intelligenz

Das Problem der voreingenommenen KI gewinnt mit der rasanten Entwicklung der Technologie und der zunehmenden Zahl von Anwendungen von Algorithmen in verschiedenen Branchen immer mehr an Bedeutung. Auf der Suche nach mehr Automatisierung und Autonomie von Fahrzeugen, Maschinen und Geräten schaffen wir Algorithmen, die unfehlbar, effektiv und objektiv arbeiten. Doch während wir auf weitere Erfolge bei der Umsetzung der Technologie warten und die Anwendungsbeispiele bewundern, müssen wir an den Anfang zurückgehen und uns um die richtigen Muster kümmern, auf deren Grundlage künstliche Intelligenz entwickelt werden kann und die erwarteten Ergebnisse erzielt. In diesem Fall sind wir an einem Punkt angelangt, an dem wir einen Schritt zurückgehen müssen, um gleich zwei Schritte vorwärts machen zu können.

Entwickeln Sie künstliche Intelligenz mit GlobalLogic

Bei GlobalLogic implementieren wir fortschrittliche Projekte für Kunden aus verschiedenen Branchen und schaffen innovative Lösungen, die bald von Millionen von Menschen auf der ganzen Welt genutzt werden.Wir beobachten genau, wie sich eingebettete Systeme und künstliche Intelligenz entwickeln . Sie möchten Ihre Leidenschaft mit der Arbeit verbinden und sich beruflich weiterentwickeln? Sehen Sie auf der Registrierkarte "Karriere" nach, wen wir suchen, und schließen Sie sich unseren Teams an, die in verschiedenen Teilen des Landes tätig sind.

Author

4aa901e7ab8295f07139911c8bed1ae6?s=256&d=mm&r=g

Author

GlobalLogic Marketing

View all Articles

Top Insights

Homeoffice Whitepaper

Homeoffice Whitepaper

AtlassianCloudSecurityAutomotiveCommunicationsConsumer and RetailFinancial ServicesHealthcareManufacturing and IndustrialMediaTechnology

Top Authors

Axel Salmeron

Axel Salmeron

Sr Developer

Manuel Asenzo

Manuel Asenzo

Senior Manager

Ravikrishna Yallapragada

Ravikrishna Yallapragada

AVP, Engineering

Amit Handoo

Amit Handoo

Vice President, Client Engagement

Sameer Tikoo

Sameer Tikoo

Senior Vice President & GM, Communication Services BU

Blog Categories

  • URL copied!