Künstliche Intelligenz befähigt Menschen dazu, Dinge zu tun, die sie vorher nicht konnten – im Positiven wie im Negativen.
Die beiden KI-Marktführer OpenAI (mit ChatGPT) und Anthropic (mit Claude) haben in einem ausführlichen Test die Schwachstellen in den gegenseitigen Systemen untersucht. Dabei ging es darum, wie leicht es ist, die KI-Modelle für illegale Aktivitäten zu nutzen. Die Antwort: Erschreckend leicht!
Durch die Verbreitung von immer besser werdender Künstlicher Intelligenz wird es für Ottonormalverbraucher immer schwieriger, Betrüger zu erkennen. Wenn betrügerische E-Mails vor einigen Monaten und Jahren noch vor Rechtschreibfehlern und Grammatikaussetzern gewimmelt haben, werden wir Nutzer nun mit perfekten Nachrichten bombardiert.
Um diesem Strudel zu entkommen, braucht es in zwei Bereichen gezielte Fortschritte: Einerseits müssen alle Menschen, die im Privatleben oder im Beruf mit KI in Kontakt kommen, im richtigen Umgang befähigt werden. Vom Kleinkind bis zum Erzieher, vom Schüler bis zum Lehrer, vom Angestellten bis zum Vorgesetzen: Das Verständnis über die Funktionsweise von KI muss ein Grundrecht in der deutschen Bildung werden.
Andererseits brauchen wir regulatorische Maßnahmen aus der Politik, die den kleinen und großen KI-Unternehmen und vor allem ihren Erzeugnissen klare Grenzen setzen. Der AI Act der Europäischen Union ist dabei ein erster Auftakt, der allerdings in Konsequenz und im Praxisalltag noch viel sprichwörtliche Luft nach oben hat.
Auch wenn Künstliche Intelligenz längst nicht alles weiß und gerne halluziniert: Das Durchschnittswissen der gängigen KI-Modelle ist schon heute höher als das des Durchschnittsbürgers. Im Umkehrschluss bedeutet das, dass Künstliche Intelligenz schnellstmöglich umfangreiche Sicherheitsmaßnahmen benötigt.
Was ich bisher zum Thema gemacht/geschrieben habe, Bilder usw. gibt es hier in diesem Blog in der Kategorie KI: https://robertmeidling.blog/category/ki/

Hinterlasse einen Kommentar