Interview: Chatbot-Manipulation und das GEMA vs OpenAI Verfahren oder wie provoziere ich einen Chatbot?

Sarah: Warum sind diese Manipulationstechniken überhaupt erfolgreich?

Sascha: Large Language Models haben eine fundamentale Eigenschaft. Sie sind darauf trainiert, hilfreich zu sein und den Kontext des Nutzers zu berücksichtigen. Dies führt zu einem inhärenten Spannungsfeld. Kontextsensitivität ermöglicht einerseits relevante Antworten, birgt andererseits aber Missbrauchspotenzial durch Kontextänderung. Instruktionsbefolgung führt zu nützlicher Assistenz, kann aber auch zur Befolgung schädlicher Anweisungen führen. Und Rollenübernahme ermöglicht kreative Anwendungen, kann aber auch zur Umgehung von Sicherheitsregeln genutzt werden.


  1. vgl. https://arxiv.org/abs/2308.03825 ↩︎
  2. vgl. https://academy.openai.com/public/clubs/work-users-ynjqu/resources/custom-gpts ↩︎
  3. vgl. https://learn.microsoft.com/en-us/azure/ai-foundry/openai/concepts/advanced-prompt-engineering?view=foundry-classic ↩︎
  4. vgl. https://huggingface.co/blog/rlhf ↩︎
  5. vgl. https://learn.microsoft.com/de-de/azure/ai-services/content-safety/concepts/protected-material?tabs=text ↩︎
  6. vgl. https://learn.microsoft.com/en-us/azure/ai-foundry/responsible-ai/openai/customer-copyright-commitment?view=foundry-classic ↩︎


AUTOREN


Sarah Tavcer ist Rechtsanwältin und seit einigen Jahren als externe Datenschutzbeauftragte und Datenschutzberaterin tätig. Außerdem ist die zertifizierte KI-Compliance-Beauftragte.


Sascha Scheffler ist diplomierter Maschinenbauingenieur und Experte für digitale Transformation. Er ist zertifizierter Lean Administration Expert, hat einen Master in Business with AI (MBAI®) und ist derzeit in Ausbildung zum AI Integration Expert.

Federated Learning

Neben der Zweckbindung ist im Rahmen der Verarbeitung personenbezogener Daten, deren Integrität und Vertraulichkeit zu gewährleisten. Die Datenverarbeitung muss daher unter anderem eine angemessene Sicherheit der personenbezogenen Daten gewährleisten, einschließlich Schutz vor unbefugter oder unrechtmäßiger Verarbeitung. Weiterhin ist der sogenannte Grundsatz der Datenminimierung zu beachten. Personenbezogene Daten müssen dem Zweck angemessen und erheblich sowie auf das für die Zwecke der Verarbeitung notwendige Maß beschränkt sein, d. h. es dürfen nur die Daten verarbeitet werden, zur Erreichung des zugrundliegenden Zwecks erforderlich sind.

Bei Interesse, Fragen und Austausch zu dem Thema oder wenn das für Ihr KI-Modell als Lösung interessant ist, kommen Sie gerne auf uns zu und melden sich hier.

  1. vgl. How much data from the public Internet is used for training LLMs? | by Michael Humor | GoPenAI ↩︎
  2. s. https://www.edps.europa.eu/system/files/2025-06/techdispatch_federated-learning_en.pdf ↩︎
  3. vgl. https://arxiv.org/abs/2103.07853 ↩︎

KI-KOMPETENZ

AI LITERACY – Eine Einführung in den Begriff und seine gesetzliche Verankerung im AI Act

  • Bereitstellung von Ressourcen (Personal, Infrastruktur, Technologie)
  • Sicherstellung der Kompetenz der Beschäftigten
  • Bewusstseinsbildung zur KI-Politik und individuellen Rollen

Ein Ansatz könnte in drei Kompetenzstufen liegen, bei denen zwischen Grundverständnis, fortgeschrittene Kenntnisse und toolspezifische Kompetenzen unterschieden wird.