Das neue KI-Gesetz der EU
Tabuzonen für die grenzenlose Intelligenz
Künstliche Intelligenz ist dabei, die Welt zu revolutionieren. Damit dies nicht außer Kontrolle gerät, hat die EU den „AI Act“ beschlossen – also Regularien, die Manipulationen der Endnutzer verhindern und zugleich den Schutz der Persönlichkeit gewährleisten sollen. Was bedeutet dies für das deutsche Küchenbusiness?
Was riskieren Unternehmen, wenn sie KI einsetzen? Als Datenexperte liefert DCC-Geschäftsführer Dr. Olaf Plümer einen Überblick.
Es gibt kaum noch einen Bereich des wirtschaftlichen, gesellschaftlichen oder auch privaten Lebens, in den die Künstliche Intelligenz nicht eindringt. Beschwingt und fasziniert von den neuen Möglichkeiten, die alles einfacher und schneller machen, greifen Unternehmen und Anwender immer häufiger
zu Tools wie ChatGPT oder sog. Intelligente Assistenten. Dass dies durchaus „spooky“ angesichts des teilweise „phantasierten“ Wahrheitsgehalts und auch ethisch fragwürdig ist, wird dabei schon mal zur Seite geschoben. Doch nicht jeder Zweck heiligt die Mittel. Erst recht, wenn diese gegen fundamentale
Persönlichkeitsrechte verstoßen, braucht es klar formulierte Grenzen. In seltener Geschwindigkeit hat deshalb die EU-Kommission mit einer ersten umfassenden KI-Verordnung – als globales Vorbild – reagiert: dem „AI Act“, auch KI-Gesetz genannt. Es ist beDas neue KI-Gesetz der EU Tabuzonen für die
grenzenlose Intelligenz Künstliche Intelligenz ist dabei, die Welt zu revolutionieren. Damit dies nicht außer Kontrolle gerät, hat die EU den „AI Act“ beschlossen – also Regularien, die Manipulationen der Endnutzer verhindern und zugleich den Schutz der Persönlichkeit gewährleisten sollen. Was bedeutet dies für das deutsche Küchenbusiness? Was riskieren Unternehmen, wenn sie KI einsetzen? Als Datenexperte liefert DCC-Geschäftsführer Dr. Olaf Plümer einen Überblick. reits zum 1. August in Kraft getreten. Am 2. Februar 2025 müssen die allgemeinen Vorschriften umgesetzt sein (Verbote aus Kapitel I und II der KI-Verordnung), alle übrigen Geltungsbereiche und Sanktionsmechanismen folgen in verschiedenen Steps bis August 2027.
Gerade bei der Einordnung der „riskanten“ AI-Systeme, bei denen verbotene von Hochrisiko- Systemen mit besonderen Anforderungen unterschieden werden, dürfte das komplexe „Gesetz“ manchen ins Grübeln bringen. Der KÜCHENhandel hat deshalb den versierten IT-Experten Dr. Olaf Plümer, der als CEO des Daten Competence Centers (DCC) an der Schnittstelle zu fast allen Bereichen der Küchenbranche an den neuesten Entwicklungen mitwirkt, nach der Bedeutung des „AI Acts“ für die Branche gefragt.
KÜCHENhandel: Herr Dr. Plümer, für welche Unternehmen wird der AI Act überhaupt relevant? Betreffen die Regularien nur IT-Entwickler und Systemanbieter oder auch den Handel, der Produkte wie z. B. Küchengeräte mit AI vertreibt? Und gibt es nun Tabus für den Einsatz von Chatbots und anderen KITools, um den Büroalltag zu erleichtern, Bewerbungen auszuwerten oder Services für Kunden zu verbessern?
Dr. Olaf Plümer: Der europäische AI Act betrachtet vieles von der Meta-Ebene, trotzdem gibt es ganz konkrete Bedingungen, die auch Möbelhersteller und ‑händler betreffen. Wenn beispielsweise im Kundenservice ein Chatbot eingesetzt wird, dann muss dieser laut AIA als solcher gekennzeichnet sein. Viele Einschränkungen ergeben sich bereits aus anderen europäischen Gesetzen. Insbesondere die Datenschutz-Grundverordnung reguliert viele Einsätze im Unternehmen. Nehmen wir Ihr Beispiel, die Auswertung aller eingegangenen Bewerbungen einem KISystem zu überlassen. Ein solches System wäre ohne weiteres imstande, auf der Basis vorgegebener Kriterien selbst zu entscheiden, wer dann zu einem Vorstellungsgespräch eingeladen wird. Dies verstößt nach Einschätzung von Datenschutzexperten eindeutig gegen die DSGVO. Bereits die Einladung zu einem Vorstellungsgespräch ist wegen möglicher Diskriminierungen rechtlich relevant.
KÜCHENhandel: In welchen Anwendungsbereichen muss die Küchenbranche besonders aufpassen, dass sie nicht gegen die KI-Regeln verstößt?
Plümer: Es gibt im Produktionsprozess nützliche Systeme – und leider auch Fallstricke. Wenn beispielsweise KI mögliche Ausfälle von Motoren erkennen soll, bevor es zu einem Ausfall kommt: Die Systeme erfassen dabei oft auch Daten der Menschen, welche die Maschinen bedienen. Dann geht es meist
doch an irgendeiner Stelle um wenige personenbezogene Daten. Solche KI-Systeme könnten jedoch auch ohne sie auskommen. In diesen Fällen ist es zielführend und in der Regel auch machbar, die Daten herauszufiltern und nicht zu verwenden.
KÜCHENhandel: Im Marketing sind KITools für personalisierte Einkaufserlebnisse im Kommen, u. a. um Kundenwünsche zu analysieren oder Kundenprofile zu erstellen: Worauf ist hier beim Einsatz von Datenanalyse- Tools zu achten?
Plümer: Dem AIA liegt ein risikobasierter Ansatz zugrunde. Es ist beispielsweise verboten, Kunden nach ihrem Verhalten zu bewerten, das so genannte Social Credit Scoring. Die Erstellung von Kundenprofilen, wie wir sie aus den Vertriebssystemen kennen, fallen m. E. eher unter die DSGVO. Die Analyse der Kundenwünsche können hingegen gesetzeskonform realisiert werden. Hierzu werden keine personenbezogenen Daten benötigt. Hilfreiche Ansätze bietet beispielsweise die IWOfurn mit dem KI-basierten Feedback-Management. KI bricht u. a. Tausende von herstellerspezifischen Farben auf Standardfarben herunter. So kann der Handel Verkaufstrends leichter ermitteln.
KÜCHENhandel: Wie verbindlich sind die Regeln und was droht bei Verstoß?
Plümer: DSGVO und AIA sind EU-Verordnungen und haben unmittelbar Gesetzeskraft. Bei der DSGVO richten sich die Bußgelder nach dem Unternehmensumsatz sowie der Art und Schwere des Verstoßes. Die Verordnung sieht für Verstöße Bußgelder von bis zu 20 Millionen Euro oder für Unternehmen von bis zu vier Prozent des weltweiten Jahresumsatzes vor. Ein Verstoß gegen den AI Act könnte sogar noch teurer werden. Die EU sieht Strafen von bis zu 35 Millionen Euro oder sieben Prozent des globalen Umsatzes vor.
KÜCHENhandel: Wie lässt sich ein Nachweis erbringen, dass kein inakzeptables oder hohes Risiko vorliegt? Sind Audits und Zertifikate vorgesehen?
Plümer: Den ersten Schritt müssen die Anbieter der KI-Systeme machen. Geschlossene KI-Systeme sind offenen vorzuziehen. Ein geschlossenes System liegt vor, wenn die Kontrolle über alle Ein- und Ausgabedaten vollständig beim Anwender bleibt. Weitere Bedingung ist, dass der Systemanbieter die Daten nicht zum Training des Systems verwendet. Konkret gesprochen: Ich würde statt ChatGPT eher Copilot verwenden, obwohl beides von OpenAI / Microsoft kommt.
KÜCHENhandel: Droht ein neues Bürokratiemonstrum, das eher blockiert als den digitalen Fortschritt voranbringt?
Plümer: Meine persönliche Meinung ist,dass die Verordnung dringend erforderlich war – genauso wie die US-amerikanische Exekutivanordnung zur KI. Zwischen den ersten Entwürfen und der verabschiedeten Fassung wurde der AIA sinnvollerweise an aktuellen Herausforderungen, beispielsweise durch die
generativen KI angepasst.
KÜCHENhandel: Wann ist rechtlicher Beistand erforderlich?
Plümer: Wenn ein Unternehmen keine Standardsoftware, wie zum Beispiel Copilot, einsetzt, sondern sich spezifische KI-Systeme baut, sollte ein Experte vor der Freischaltung hinzugezogen werden. Das Verfahren kennen die Unternehmen schon aus dem Bereich des Datenschutzes.
KÜCHENhandel: Wie sollten Unternehmen ihre Beschäftigten für eventuelle Compliance-Verstöße sensibilisieren?
Plümer: Allen Mitarbeitenden, die KI-Systemenutzen, sollten entsprechende Schulungen angeboten werden. Das, was man wissen muss, ist überschaubar. Es wäre schon hilfreich, den Unterschied zwischen einem Sprachmodell und einer Suchmaschine zu erfahren. Dass Sprachmodelle halluzinieren können, ist nicht jeder Nutzerin und jedem Nutzer bewusst.
Verbotene KI-Systeme
- unterschwellige, manipulative oder täuschende Techniken, um das Verhalten zu verzerren und die bewusste Entscheidungsfindung zu beeinträchtigen, wodurch erheblicher Schaden entsteht
- Ausnutzung von Schwachstellen im Zusammenhang mit Alter, Behinderung oder sozioökonomischen Verhältnissen
- biometrische Kategorisierungssysteme, die Rückschlüsse auf sensible Merkmale (Rasse, politische Meinungen, religiöse oder philosophische Überzeugungen etc.) zulassen, außer bei rechtmäßig erworbenen biometrischen Daten
- Soziales Scoring, d. h. die Bewertung oder Klassifizierung von Personen oder Gruppen aufgrund ihres Sozialverhaltens oder ihrer persönlichen Eigenschaften, was zu einer nachteiligen Behandlung führt
- die Bewertung des Risikos, dass eine Person Straftaten begeht, aus schließlich auf der Grundlage von Profilen oder Persönlichkeitsmerkmalen, außer
in direktem Zusammenhang mit kriminellen Aktivitäten - Aufbau von Gesichtserkennungs datenbanken durch ungezieltes Auslesen von Gesichtsbildern aus dem Internet oder aus Videoüberwachungsaufnahmen
- das Ableiten von Emotionen am Arbeitsplatz oder in Bildungseinrichtungen, außer aus medizinischen oder Sicherheits gründen (Auszug aus AI Act, Kapitel II, Art. 5,
Quelle: Future of Life Institute; nähere Informationen inkl. KI-Gesetzes-Compliance-Checker unter https://futureoflife.org)
Autorenprofil
Dr. Olaf Plümer ist seit 2001 Geschäftsführer des Daten Competence Center e. V. (DCC), das sich für alle Bereiche der Datenkommunikation in der Möbel- bzw.
Küchenbranche engagiert (u.a. EDIund IDM-Standards). Mitglieder sind Industrie, Software-Anbieter und Möbelhandel sowie Möbellogistik. KI-Tools in der Unternehmenspraxis spielen eine wachsende Rolle.