Interview: Chatbot-Manipulation und das GEMA vs OpenAI Verfahren oder wie provoziere ich einen Chatbot?

Sarah: Warum sind diese Manipulationstechniken überhaupt erfolgreich?

Sascha: Large Language Models haben eine fundamentale Eigenschaft. Sie sind darauf trainiert, hilfreich zu sein und den Kontext des Nutzers zu berücksichtigen. Dies führt zu einem inhärenten Spannungsfeld. Kontextsensitivität ermöglicht einerseits relevante Antworten, birgt andererseits aber Missbrauchspotenzial durch Kontextänderung. Instruktionsbefolgung führt zu nützlicher Assistenz, kann aber auch zur Befolgung schädlicher Anweisungen führen. Und Rollenübernahme ermöglicht kreative Anwendungen, kann aber auch zur Umgehung von Sicherheitsregeln genutzt werden.


  1. vgl. https://arxiv.org/abs/2308.03825 ↩︎
  2. vgl. https://academy.openai.com/public/clubs/work-users-ynjqu/resources/custom-gpts ↩︎
  3. vgl. https://learn.microsoft.com/en-us/azure/ai-foundry/openai/concepts/advanced-prompt-engineering?view=foundry-classic ↩︎
  4. vgl. https://huggingface.co/blog/rlhf ↩︎
  5. vgl. https://learn.microsoft.com/de-de/azure/ai-services/content-safety/concepts/protected-material?tabs=text ↩︎
  6. vgl. https://learn.microsoft.com/en-us/azure/ai-foundry/responsible-ai/openai/customer-copyright-commitment?view=foundry-classic ↩︎


AUTOREN


Sarah Tavcer ist Rechtsanwältin und seit einigen Jahren als externe Datenschutzbeauftragte und Datenschutzberaterin tätig. Außerdem ist die zertifizierte KI-Compliance-Beauftragte.


Sascha Scheffler ist diplomierter Maschinenbauingenieur und Experte für digitale Transformation. Er ist zertifizierter Lean Administration Expert, hat einen Master in Business with AI (MBAI®) und ist derzeit in Ausbildung zum AI Integration Expert.