KI-Regulierung: Ein Wettbewerbsvorteil für Europa?


BDA AGENDA 16/23 | THEMA DER WOCHE | 27. Juli 2023

Mit KI können wir Effizienz und Produktivität steigern sowie die Arbeitsbedingungen unserer Beschäftigten verbessern. Wenn wir aber KI – etwa in der Bildung und im Personalwesen – pauschal als risikoreich einstufen und die Anwender mit diversen Pflichten überfrachten, dann erreichen wir vor allem eines: Wir schrecken die Unternehmen ab.

Als Schlüsseltechnologie des 21. Jahrhunderts stößt die Entwicklung Künstlicher Intelligenz die nächste industrielle Revolution an. Sie trägt damit maßgeblich zur zukünftigen Wettbewerbsfähigkeit des europäischen und deutschen Wirtschaftsstandorts bei. Die KI-Rechtsvorschriften der EU werden den Einsatz von Künstlicher Intelligenz in der europäischen Gesellschaft, Wissenschaft und Wirtschaft signifikant prägen und über die Rolle Deutschlands und Europas im globalen technologischen Wettlauf mitentscheiden. Am 21. April 2022 hat die Europäische Kommission einen Vorschlag für eine europäische KI-Verordnung vorgelegt, im Dezember 2022 hat der Rat und im Juni 2023 das Europäische Parlament seine Position festgelegt.

Anlässlich der nun unter der spanischen Ratspräsidentschaft stattfindenden Trilog-Verhandlungen haben der BDI und die BDA neun Kernforderungen der deutschen Wirtschaft zusammengefasst. Diese Verhandlungen sind entscheidend, um für die Entwicklung und Anwendung von KI in Europa einen klugen Rahmen zu setzen. Eine wertebasierte KI-Regulierung kann ein Wettbewerbsvorteil für Europa sein. Die Gleichung geht aber nur dann auf, wenn wir gleichzeitig das Potenzial von KI für die Steigerung von Innovation, Wachstum, Produktivität und die Schaffung von Arbeitsplätzen voll ausschöpfen.

Aus Arbeitgebersicht besonders zentrale Punkte sind dabei:

Begriffsdefinitionen: Die deutsche Wirtschaft plädiert für eine enge Definition von Künstlicher Intelligenz. Sie sollte nur solche Systeme beinhalten, die selbstständig weiterlernen. Die Kriterien, wann Nutzer – etwa durch Veränderungen am System oder der Vermarktung unter eigenen Namen – als Anwender gelten, müssen viel klarer definiert werden.

„High-Risk“-Kategorisierung: Der spezifische Kontext und die Anwendungsart müssen darüber entscheiden, ob KI-Anwendungen aus Annex III als Hochrisiko betrachtet werden – ein pauschaler Ansatz ist nicht angemessen. Für Unternehmen, die KI-Systeme anwenden, muss klar sein, unter welchen Umständen der Output der in Annex III genannten KI-Systeme ein hohes Risiko darstellen würde und in welchen Fällen nicht. Auch müssen unbürokratische Korrektur-Mechanismen im Falle von Fehlklassifizierungen möglich sein.

KI in der Arbeitswelt: Die Einführung und Nutzung von KI am Arbeitsplatz darf nicht grundlos erschwert werden und muss immer im Rahmen der bereits bestehenden Unterrichtungs- und Beratungsrechte sowie den Mitbestimmungsregelungen mit den Betriebsräten (BetrVG) – nicht unter Zustimmungspflicht einzeln betroffener Beschäftigter – erfolgen. Für Unternehmen, die Anwender von KI-Systemen sind, muss die Erfüllung ihrer Transparenzpflichten klar und in der Praxis handhabbar sein.

Übergangsfristen: Um die Planungs- und Entscheidungssicherheit für die Unternehmen herzustellen, müssen Übergangsfristen klar spezifiziert werden. Unternehmen müssen unkompliziert einschätzen können, wann die Vorgaben aus dem AI Act für ihre KI-Modelle greifen.

Standardisierung: Normen und Standards bilden auch in der KI den Stand der Technik ab und schaffen somit Vertrauen in die Technologie und in auf ihr basierende Produkte. Bei der Entwicklung und Anwendung von KI-Modellen können Normung und Standardisierung die Einführung von KI insbesondere für Unternehmen mit begrenzten Ressourcen erleichtern, da sie helfen, Entwicklungskosten einzusparen.

„General Purpose AI“: Generative Künstliche Intelligenz bietet sowohl Chancen als auch Risiken. Für die Wirtschaft kann sie signifikante Prozessoptimierungen bedeuten. Eine Pauschaleinordnung von „Foundation Models“ als Hochrisikoanwendungen wird den unterschiedlichen Verwendungen nicht gerecht. Eine Risikobetrachtung muss im Kontext der Anwendung durchgeführt werden.

Umsetzung der KI-Verordnung: Wir müssen durch Investitionen in Forschung und Weiterbildung den transdisziplinären Kompetenzaufbau im Bereich Künstlicher Intelligenz fördern. Eine sich rasant entwickelnde Technologie wie Künstliche Intelligenz muss sich institutionell in agiler Gesetzgebung niederschlagen. Die KI-Verordnung wird immer ein dynamischer Rechtsakt bleiben müssen, um die notwendigen Anpassungen zukunftsfähiger Regulierung von KI gewährleisten zu können.