Der europäische AI Act ist das weltweit erste Gesetz, das Künstliche Intelligenz (KI) umfassend regelt. In vielerlei Hinsicht ein Triumph, verunsichert die neue Gesetzgebung aber auch viele, vor allem im Gesundheitswesen. Denn KI-Medizinprodukte landen sehr schnell in der höchsten Risikoklasse – mit weitreichenden Folgen.
Die KI-Expertinnen Dr. Tanja Bratan, Leiterin Geschäftsfeld Innovationen im Gesundheitssystem beim Fraunhofer-Institut für System- und Innovationsforschung ISI, Dr. Andrea Sautter, Rechtsanwältin bei Taylor Wessing und Dr. Julia Hoxha, Leiterin der AG Health beim Bundesverband der Unternehmen der Künstlichen Intelligenz in Deutschland, erläutern die Anforderungen der Verordnung über Künstliche Intelligenz (AI Act), und was sie für das Gesundheitswesen bedeutet.
Von einem KI-Hype zu sprechen, ist derzeit wohl kaum übertrieben: Von Chatbots wie ChatGPT und Gemini über E-Commerce-Programme bis hin zu Bewerbungssoftware scheint ohne Künstliche Intelligenz in den kommenden Jahren kaum mehr etwas zu gehen. Besonders große Hoffnungen bestehen jedoch im Gesundheitswesen. Hier könnten durch Maschinelles Lernen Diagnosen genauer und Behandlungen effektiver sowie günstiger werden.
Nach Einschätzung der Forschungsplattform MarketsandMarkets wird der Markt für KI im Gesundheitswesen zwischen 2024 und 2029 um 48,1 Prozent wachsen.1) Doch neben dem enormen Potenzial dürfe man auch die Gefahren nicht unterschätzen, mahnt KI-Expertin Bratan vom Fraunhofer ISI: „Vor allem gibt es Bedenken beim Datenschutz. Aber auch falsche oder zweifelhafte Therapieempfehlungen, Diskriminierung oder mangelnde Transparenz der Entscheidungen sind ein mögliches Problem.“ Genau solchen Gefahren soll die europäische Verordnung zur Künstlichen Intelligenz (auch KI-Verordnung oder AI Act genannt) unter anderem vorbeugen.2)
Aufgrund der weitreichenden Einsatzfelder von Künstlicher Intelligenz regelt die KI-Verordnung diese umfassend: vom Inverkehrbringen über die Inbetriebnahme bis hin zur Nutzung von KI-Systemen in der EU. Dabei verfolgt der AI Act einen risikobasierten Ansatz: Je höher das Risiko eines Systems, desto strenger die Anforderungen, die es erfüllen muss. Auch Regelungen zur Überwachung der Systeme nach Markteinführung legt der AI Act fest sowie die Pflicht, AI Literacy, also KI-Fachwissen in Unternehmen zu schaffen, die diese Systeme anbieten oder verwenden. Bei Verstößen drohen empfindliche Strafen von bis zu 35 Mio. Euro oder 7 Prozent des Jahresumsatzes. Die Verordnung gilt unmittelbar wie ein Gesetz in allen EU-Mitgliedstaaten und muss von diesen nicht erst national umgesetzt werden.
Die Definition von Künstlicher Intelligenz war einer der umstrittensten Punkte des AI Acts und hat sich im Laufe der Zeit geändert. Ein System muss folgende Kriterien erfüllen, um demnach als KI zu gelten:
Diese recht komplexe Definition läuft letztlich auf einen zentralen Punkt hinaus: KI-Systeme arbeiten zu einem gewissen Grad autonom.
Die KI-Verordnung verfolgt einen risikobasierten Ansatz. Das bedeutet, dass die Anforderungen an die Systeme je nach Risiko, das von ihnen ausgeht, steigen.
Minimales Risiko und mittleres Risiko:
Als KI-Systeme mit minimalem Risiko stuft die Verordnung beispielsweise einfache Spiel-KIs ein. Solche Systeme unterliegen keinen besonderen Zulassungsanforderungen. Bestimmte Systeme mit mittlerem Risiko werden dagegen in der Verordnung explizit genannt und entsprechend ihrem Risiko reguliert. Dazu gehört insbesondere KI, die mit natürlichen Personen interagiert und zum Beispiel Emotionen erkennen oder Text-, Bild-, Audio- und Videoinhalte erstellen kann.
Verbotene KI-Systeme (Art. 5):
Bestimmte KI-Systeme sind nach Artikel 5 KI-Verordnung komplett verboten. Darunter fallen: manipulative Techniken, das Ausnutzen von Vulnerabilitäten wie Alter, Behinderung oder sozialer Lage, soziale Bewertungssysteme (Social Scoring) und viele Anwendungen in Bezug auf strafbare Handlungen.
Hochrisiko-KI-Systeme (Art. 6):
Hochrisiko-KI-Systeme müssen strenge Anforderungen erfüllen. Was als hohes Risiko im Sinne des AI Act gilt, bestimmt sich nach den Kriterien des Artikels 6. Ein KI-System gilt als Hochrisiko-System, wenn
Dies bedeutet, dass die meisten Medizinprodukte und IVD der höheren Risikoklassen (Medizinprodukte ab Klasse IIa und IVD ab Klasse B), die KI einsetzen, als Hochrisikoprodukte im Sinne des AI Act eingestuft werden dürften. Medizinprodukte mit Softwarekomponenten fallen meist darunter.
Fällt ein Medizinprodukt erst einmal in die Hochrisikoklasse, gelten im AI Act strenge Anforderungen. Einige davon sind Medizinprodukteherstellern allerdings schon bekannt:
Hinzu kommen jedoch auch einige neue, KI-spezifische Anforderungen:
Der AI Act tritt 20 Tage nach seiner Veröffentlichung im Journal der Europäischen Union in Kraft, also am 01.08.2024. Sechs Monate später (01.02.2025) sind die ersten Bestimmungen der Kapitel I und II (allgemeine Bestimmungen und verbotene Praktiken) verbindlich. Kapitel III Abschnitt 4, Kapitel V, VII, XII und Artikel 78 gelten nach zwölf Monaten, also ab 01.08.2025 (Ausnahme: Artikel 101). Die Regelungen zu Hochrisikosystemen in Artikel 6 Absatz 1 und die damit zusammenhängenden Bestimmungen gelten nach 36 Monaten (01.08.2027). Alle übrigen Vorschriften gelten 24 Monate nach Inkrafttreten der Verordnung (01.08.2026).
Für die KI-Systeme, die in der Zwischenzeit bereits auf den Markt gekommen sind, gelten Übergangsfristen.
„Aus unserer Branchenperspektive sind wir der Ansicht, dass dieses Gesetz weitreichende Auswirkungen für alle Beteiligten hat, nicht nur für die KI-Anbieter“, erklärt Expertin Hoxha. „Auch Krankenhäuser und andere Anwender sind betroffen. Und gerade KMUs haben große Bedenken, dass nun noch höhere Kosten auf sie zukommen. Allerdings müssen sich diese Befürchtungen nicht unbedingt bewahrheiten.“ Denn beispielsweise könnten Hersteller in vielen Fällen durch gute Planung und kluges Design verhindern, dass ihr KI-System in eine unnötig hohe Risikoklasse fällt. Zudem sieht der AI Act zahlreiche Ausnahmen und Erleichterungen für kleinere Unternehmen und die Forschung vor. In den vorgesehenen „Sandboxes“ können sich gerade junge innovative Firmen einbringen und die Branche in Zukunft mitgestalten.
Rechtsanwältin Sautter rät Unternehmen, zu prüfen, ob es sich für einzelne Produkte lohnt, sie bereits jetzt auf den Markt zu bringen, um später von den Übergangsregeln profitieren zu können. „Und dann muss man natürlich möglichst bald für den Aufbau des rechtskonformen Systems die Ressourcen schaffen und das Team möglichst zeitnah schulen“, sagt sie.
Doch trotz aller Bedenken sind sich die Expertinnen am Ende überraschend einig, dass die KI-Verordnung mehr Chancen als Risiken bietet: „Ich denke, wir sind damit weltweit absolute Vorreiter“, meint Bratan. „Wir haben außerdem die enorme Chance, uns in Europa durch sichere und qualitativ hochwertige KI-Systeme von Anfang an auszuzeichnen – und uns damit vielleicht sogar einen Marktvorteil zu verschaffen.“
Literatur:
1) MarketsandMarkets: Artificial Healthcare (AI) in Healthcare Market. https://www.marketsandmarkets.com/Market-Reports/artificial-intelligence-healthcare-market-54679303.html (Seite abgerufen 02.08.2024).
2) Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz - Revision 1:https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=OJ:L_202401689 (Seite abgerufen 02.08.2024), Reference Number: 32024R1689.