Neue Meldung

KI-Zertifizierung: Neues Projekt erforscht, wie Künstliche Intelligenz vertrauenswürdig wird

Wie kann die Zertifizierung von KI-Systemen helfen, Künstliche Intelligenz zu regulieren und so Vertrauen in die Technologie stärken? Dieser Frage gehen deutsche und brasilianische Forschungsteams auf den Grund. Das Forschungsprojekt, an dem Arbeitsgruppen der Universitäten des Saarlandes und Sao Paulo zusammenarbeiten, wird von der Deutschen Forschungsgemeinschaft DFG und der brasilianischen Partnerorganisation CAPES gefördert.

Bestätigt eine unabhängige Stelle schwarz auf weiß, dass gewisse Anforderungen und Standards sicher erfüllt sind, schafft dies Vertrauen. Mit Zertifizierungen weisen Unternehmen daher in ihrem eigenem Interesse nach, dass ihre Produkte oder Leistungen hohe Standards einhalten. Zertifizierungsstellen wie TÜV, DEKRA oder das Bundesamt für Sicherheit in der Informationstechnik prüfen und bestätigen Qualität und Sicherheit. Kunden können sich hierauf verlassen. „Auch KI-Systeme können mit Zertifizierungen an Vertrauen und Akzeptanz gewinnen“, sagt der Direktor des Instituts für Rechtsinformatik der Universität des Saarlandes Professor Georg Borges.

Die KI-Verordnung der Europäischen Union, der sogenannte AI Act, ein Meilenstein in der Regulierung von Künstlicher Intelligenz, der am 1. August 2024 in Kraft getreten ist, sieht eine sogenannte „Konformitätsprüfung“ bei Hochrisiko-KI-Systemen vor: Bei KI-Systemen, die ein hohes Risiko für Gesundheit, Sicherheit oder Grundrechte bergen, überprüft grundsätzlich der Hersteller selbst, ob sie den Anforderungen und Standards entsprechen, die etwa in geltenden Vorschriften und Normen festgelegt sind. In Ausnahmefällen verlangt der AI Act auch eine Zertifizierung durch unabhängige Stellen. Für Nicht-Hochrisiko-KI-Systeme ist eine Zertifizierung freiwillig.

Die Forschungsteams loten verschiedene Zertifizierungsarten und ihre Regelungen aus und bewerten diese. „Zertifizierungen können bestätigen, dass KI-Systeme geltende Standards, gesetzliche Vorschriften und sonstige Vorgaben erfüllen. Damit attestieren sie nicht nur, dass sie technisch zuverlässig laufen, sondern vor allem auch, dass sie sicher, transparent und fair arbeiten und verantwortungsvoll mit Daten umgehen“, sagt Georg Borges. „Wir untersuchen verschiedene Aspekte, die für verantwortungsvolle und vertrauenswürdige KI ausschlaggebend sind, ebenso wie die Einheitlichkeit und Angemessenheit internationaler Standards“, erläutert der Rechtsinformatiker. Ziel des Projektes ist es, einen sicheren Einsatz von KI-Systemen in verschiedenen Wirtschafts- und Lebensbereichen zu ermöglichen.

Mehr dazu hier

Sie befassen sich mit Künstlicher Intelligenz und möchten sich weiterentwickeln? Dann kontaktieren Sie gerne unsere verantwortliche saaris-Mitarbeiterin Sabine Betzholz-Schlüter und informieren sich.

Ihr Ansprechpartnerin bei saaris:

Max Mustermann
Sabine Betzholz-Schlüter Leitung Economy Transformation Hub 0681 210 66 200 sabine.betzholz-schlueter@saaris.saarland