Ein langer Weg zu einer wirklich offenen Künstlichen Intelligenz (KI)

Frederic Dupeux
Chief Information Security Officer
at Banque Havilland

 

 

Der Begriff „Open-Source“ ist im Bereich der Künstlichen Intelligenz (KI) in Mode gekommen, und wird von wichtigen Akteuren wie Meta und Elon Musk verteidigt. Allerdings gibt es keinen Konsens über die Definition von offener KI. Diese Unklarheit ermöglicht es den führenden Unternehmen, das Konzept zu ihrem Vorteil zu manipulieren, was ihre marktbeherrschende Stellung stärken könnte.

 

Der Aufstieg der künstlichen Intelligenz führt zu zahlreichen ethischen, rechtlichen und konzeptionellen Fragen innerhalb der Open-Source-Gemeinschaft. Während es für Open Source eine klare Definition gibt, d. h. ein zugänglicher, veränderbarer und weiterverteilbarer Quelltext, ist dies bei Open AI nicht der Fall. Aufgrund unterschiedlicher Interessen und der Komplexität von KI-Systemen im Vergleich zu herkömmlicher Software wurde keine einvernehmliche Definition vereinbart. Im Gegensatz zu Software sind KI-Systeme von großen Datenmengen abhängig und involvieren zahlreiche Komponenten wie Trainingsdaten, Vorverarbeitungscode und Modellarchitektur.

Eines der größten Anliegen der Open-Source-Gemeinschaft betrifft zu Recht die Rechte am geistigen Eigentum, wenn Algorithmen auf großen Datenmengen ohne Kenntnis ihrer Herkunft entwickelt werden.  Diese Unsicherheit hält einige Entwickler davon ab, ihre Daten zu teilen, was den Fortschritt im Bereich der Open-Source-KI behindern könnte.  Es handelt sich um einen regelrechten Kampf zwischen allen Akteuren auf diesem Gebiet, wobei die Leistung aktueller Modelle direkt von der aufgenommenen Datenmenge abhängt.

Die Komplexität und Intransparenz der KI macht es schwierig, KI-Entscheidungen allein anhand des Quellcodes zu verstehen oder rational zu begründen, was das Konzept der offenen KI in Frage stellt. Die Generierung von Text, Bildern, Videos oder Code wirft daher Lizenz-, Sicherheits- und Regulierungsprobleme auf, da nicht klar ist, woher sie stammen.

 

Während es für Open Source eine klare Definition gibt, (…), veränderbarer und weiterverteilbarer Quelltext, ist dies bei Open AI nicht der Fall. Aufgrund unterschiedlicher Interessen und der Komplexität von KI-Systemen im Vergleich zu herkömmlicher Software wurde keine einvernehmliche Definition vereinbart.

FREDERIC DUPEUX

 

Vom Teilen zum Plündern

Historisch gesehen entstand Open Source aus dem Wunsch nach Austausch und der Notwendigkeit für Hardware-Anbieter, Software für ihre Maschinen anzubieten. Auch heute noch entwickelt sich diese Arbeitsweise ständig weiter und fördert Innovation, Zusammenarbeit und Wissensaustausch in einer vielfältigen Gemeinschaft. Während in den ersten Jahrzehnten die Software im Mittelpunkt der Entwicklung von Computersystemen stand, spielen Daten seit den letzten beiden Jahrzehnten eine zentrale Rolle bei den Fortschritten der KI.

Führende Technologieunternehmen im Bereich der KI haben verschiedene Strategien gegenüber Open Source verfolgt. Einige KI-Modelle werden freier geteilt als andere. Meta hat zum Beispiel sein Modell Llama 2 als Open Source veröffentlicht, während OpenAI den Zugang zu seinen leistungsstärksten Modellen eingeschränkt hat. Google bietet frei zugängliche Gemma-Modelle an, die so konzipiert sind, dass sie mit den Modellen der Konkurrenz konkurrieren können. Viele Modelle, die als Open Source bezeichnet werden, sind jedoch mit Nutzungsbeschränkungen versehen, was im Widerspruch zu den Grundsätzen von Open Source steht.

Die Verwendung von Daten für die Erstellung von KIs ist einer der größten Stolpersteine. Während die vorgeformten Modelle häufig geteilt werden, ist dies bei den Datensätzen, aus denen sie erstellt werden, nicht der Fall. Dies schränkt die Möglichkeit ein, diese Modelle vollständig zu modifizieren und zu untersuchen. Dieser Mangel an Datentransparenz ist ein erhebliches Hindernis für echte Offenheit in der KI.

Laut Aviya Skowron, Leiterin für Politik und Ethik bei der gemeinnützigen KI-Forschungsgruppe EleutherAI, herrscht Unklarheit über die Verwendung urheberrechtlich geschützter Informationen bei der Erstellung von KI-Modellen. Stefano Zacchiroli, Professor am Institut Polytechnique de Paris und wichtiger Akteur im Definitionsprozess der Open Source Initiative (OSI), ist der Ansicht, dass eine vollständige Beschreibung der Trainingsdaten unabdingbar ist, damit KI-Modelle als Open Source gelten können.

Große Unternehmen zögern aufgrund von Wettbewerbsvorteilen und regulatorischen Bedenken, Trainingsdaten weiterzugeben. Diese Zurückhaltung schadet der eigentlichen Ethik von Open Source und stärkt nur die Macht der großen Technologieunternehmen.  Laut der Website Patronus.ai würden das OpenAI-Modell GPT4 sowie Metas Modelle Mistral/Mixtral und Lama2 die meisten Urheberrechtsverletzungen aufweisen.  Mit 44% urheberrechtlich geschützten Inhalten ist GPT4 bei weitem das Modell, das die genauesten Reproduktionen geschützter Inhalten erzeugt.

KI mit großen gesellschaftlichen Auswirkungen wird zwangsläufig zugänglich sein

Eine klare und weithin akzeptierte Definition von KI mit offenem Quellcode ist dringend erforderlich, um diese mächtigen Unternehmen daran zu hindern, Begriffe zu diktieren, die ihren Interessen entgegenkommen.

Eine wirklich offene KI hätte viele Vorteile, wie z. B. die Förderung von Innovation, Transparenz, Verantwortung, Fairness und menschlichen Werten – kurzum eine KI mit starken gesellschaftlichen und ethischen Auswirkungen. Eine offene KI würde den größten Bedrohungen durch KI entgegenwirken, nämlich ihrem Missbrauch und die Aufrechterhaltung von Vorurteilen und Diskriminierung. Eine offene KI würde erhebliche soziale und wirtschaftliche Fortschritte bringen, insbesondere in Bereichen wie Gesundheitsfürsorge, Bildung und Finanzen.

Im Bankensektor beispielsweise ist das Potenzial der KI unbestreitbar, insbesondere bei der Betrugserkennung, um kriminelle Aktivitäten besser vorhersehen zu können. Denkbar ist auch eine neue Form der Kundenbeziehung oder eine personalisierte Finanzberatung, die auf die individuellen Bedürfnisse zugeschnitten werden könnte. Schließlich sollte die KI auch eine neue Form des Risikomanagements und der Krisenvorhersage ermöglichen. Lernende Algorithmen könnten die Anfänge einer Krise schnell erkennen, und ihre Auswirkungen besser bewältigen.

In einer Zeit, des Bewusstseins für die unglaublichen Potenziale der KI, aber auch für die damit verbundenen Gefahren, ist es dringend erforderlich über einen verantwortungsvollen und ethischen Einsatz der KI nachzudenken. Open Source, das von Anfang an auf den Werten des Teilens und der Transparenz basierte, kann einen Weg zur KI bieten, der mit unseren menschlichen Werten im Einklang steht. Um diesen Weg zu sichern, bedarf es einer kontinuierlichen Zusammenarbeit zwischen Entwicklern, Forschern und Regulierungsbehörden.

 

 

 

(source: Agefi)