Home Medizin EU versucht, die Risiken für KI zu verringern

EU versucht, die Risiken für KI zu verringern

von NFI Redaktion

Die Europäische Union steht vor strengeren Regeln für den Einsatz künstlicher Intelligenz (KI). Vertreter des Europäischen Parlaments haben nach langwierigen Verhandlungen mit dem Europäischen Rat einen Konsens über die Grundzüge eines KI-Gesetzes erzielt.

Der Gesetzesvorschlag zielt darauf ab sicherzustellen, dass KI in Europa sicher ist, Grundrechte und Demokratie respektiert werden und Unternehmen den größtmöglichen Nutzen aus der Technologie ziehen. EU-Binnenmarktkommissar Thierry Breton bezeichnete die Einigung als „historisch“, während Kommissionspräsidentin Ursula von der Leyen von einer „weltweiten Neuheit“ sprach.

Neue technologische Risiken

Kritik an den Fortschritten im Bereich KI nimmt zu, da die potenziellen Risiken deutlicher werden. Kritiker fordern daher eine Regulierung, wie von medizinischen Nachrichten von Medscape berichtet.

Die Europäische Kommission veröffentlichte erstmals im April 2021 einen Gesetzesvorschlag zum KI-Gesetz. Die Verhandlungen scheiterten zuletzt fast an der Frage der Regulierung der sogenannten Stiftungsmodelle, sehr leistungsstarke KI-Modelle, die mit einer breiten Palette an Daten trainiert werden und als Grundlage für viele andere Anwendungen dienen, einschließlich ChatGPT.

Die Bestimmungen des Gesetzesvorschlags konzentrieren sich auf die potenziellen Risiken für KI und das Ausmaß ihrer Auswirkungen. Je größer das Gefahrenpotenzial, desto strenger sind die Anforderungen. Besonders riskante Formen der KI-Anwendung könnten sogar verboten werden.

Große KI-Unternehmen wie OpenAI, Microsoft und Google müssen nun Transparenzregeln befolgen und Auskunft darüber geben, welche Daten zum Trainieren der Technologie verwendet werden und wie das Urheberrecht gewahrt wird.

Was das Gesetz beinhaltet

Die wichtigsten Aspekte des KI-Gesetzes sind die folgenden:

  • Schutzmaßnahmen für allgemeine KI
  • Beschränkung der Verwendung biometrischer Identifikationssysteme durch Strafverfolgungsbehörden
  • Verbot von Social Scoring und KI
  • Recht des Nutzers, Beschwerden einzureichen und aussagekräftige Erklärungen zu erhalten
  • Geldstrafen in unterschiedlicher Höhe je nach Verstoß

Gesichtserkennung

Sprachmodelle wie ChatGPT unterliegen eigenen Regelwerken, da sie nicht in die risikobasierte Sortierung passen. Deutschland, Frankreich und Italien haben sich gegen die Regulierung von Sprachmodellen gewehrt, aus Angst vor einer Verlangsamung der Innovation.

Der Zweck großer Sprachmodelle ist nicht klar, daher werden sie im Gesetzesentwurf als General Purpose AI (GPAI) bezeichnet. GPAI-Modelle mit hohem systemischem Risiko sind ähnlich strengen Auflagen unterworfen.

Das Europäische Parlament hat einige KI-Technologien als nicht legal angesehen. Systeme, die Gesichter aus öffentlich zugänglichen Daten scannen, sowie KI-Software, die Emotionen am Arbeitsplatz und in Bildungseinrichtungen erkennen, sollen verboten werden.

Einige EU-Mitgliedstaaten bestehen darauf, dass es Ausnahmen von einigen Verboten gibt, damit Ermittlungsbehörden bestimmte Technologien nutzen können. Der vereinbarte Text des Gesetzes muss offiziell vom Parlament und Rats angenommen werden, um EU-Recht zu werden.

Dieser Artikel wurde aus dem übersetzt Deutsche Ausgabe von Medscape.

Related Posts

Adblock Detected

Please support us by disabling your AdBlocker extension from your browsers for our website.