Zusammenfassung
Forschungsethik beginnt mit zwei grundlegenden Prinzipien: Wohltun (Gutes tun, keinen Schaden anrichten) und Gerechtigkeit (faire Behandlung und Vergütung). In der Praxis bedeutet das, Teilnehmer*innen vor emotionalem Stress zu schützen, sie fair für ihre Arbeit zu entlohnen und als gewissenhafte Hüter ihrer Daten zu agieren, insbesondere bei der Nutzung von KI-Tools, die möglicherweise mit Ihren Eingaben trainiert werden.
Unsere Arbeit gibt uns das Privileg, in das Leben anderer Menschen einzutreten. Mit diesem Privileg geht eine tiefgreifende ethische Verantwortung einher. Bevor wir überhaupt die rechtlichen Anforderungen des Datenschutzes in Betracht ziehen, müssen wir mit den menschlichen Prinzipien beginnen, die unsere Interaktionen bestimmen.
Zwei grundlegende Prinzipien
Das ethische Rahmenwerk der American Psychological Association bietet eine solide Orientierung für die Forschungspraxis. Zwei Prinzipien sind für die UX Research besonders relevant.
Wohltun und Nicht-Schaden
Dieses Prinzip bedeutet, dass wir danach streben müssen, Gutes zu tun und vor allem keinen Schaden anzurichten.
Im Forschungskontext geht dies über die körperliche Sicherheit hinaus und umfasst auch den Schutz von Teilnehmer*innen vor übermäßigem emotionalem Stress. Ein schlecht gestalteter Test kann zutiefst frustrierend sein. Die Behandlung sensibler Themen erfordert Sorgfalt und Empathie. Unsere primäre Pflicht ist es, sicherzustellen, dass Teilnehmer*innen eine Sitzung mit dem Gefühl verlassen, respektiert worden zu sein, und nicht erschöpft oder belastet.
Gerechtigkeit
Das Prinzip der Gerechtigkeit fordert Fairness und Gleichbehandlung. Dies gilt unmittelbar für die Vergütung von Teilnehmer*innen.
Wir müssen in Kategorien der Arbeitsökonomie denken. Teilnehmer*innen leisten qualifizierte Arbeit: Ihre gelebte Erfahrung und ihr konzentriertes Feedback sind wertvolle Beiträge zu unserem Geschäftsprozess. Sie verdienen eine faire Vergütung für ihre Zeit und Expertise, keine symbolischen Gutscheine oder Teilnahme an Verlosungen.
Die Herausforderung durch KI und Cloud-Tools
Diese ethischen Pflichten reichen über die Live-Sitzung hinaus und betreffen den Umgang mit den erhobenen Daten. Dies ist besonders kritisch bei der Nutzung cloudbasierter KI-Tools.
Wenn Sie Daten in viele kommerzielle KI-Plattformen eingeben, gewähren Sie dem Anbieter möglicherweise eine Lizenz, diese Daten zum Training zukünftiger Modelle zu verwenden. Dies birgt mehrere Risiken:
Datenschutzverletzungen: Die Weitergabe personenbezogener Daten ohne ausdrückliche Einwilligung der betroffenen Person für diesen spezifischen Zweck kann gegen Vorschriften wie die DSGVO verstoßen.
Urheberrechtliche Probleme: Wenn Nutzerdaten Eigentum Ihres Kunden oder Unternehmens sind, kann das Hochladen zum Training von Drittmodellen rechtliche Risiken schaffen.
Einwilligungslücken: Ihre ursprüngliche Einwilligungserklärung hat wahrscheinlich nicht abgedeckt, dass Daten zum Training von KI-Modellen verwendet werden könnten.
Das KI-Sicherheitsprotokoll
Um verantwortungsvoll damit umzugehen, müssen Sie ein proaktiver Hüter der Daten Ihrer Teilnehmer*innen sein. Bevor Sie irgendetwas in ein KI-Tool hochladen, arbeiten Sie diese Checkliste durch.
1. Nutzungsbedingungen prüfen
Lesen Sie das Kleingedruckte. Verwendet der KI-Anbieter Ihre Eingaben zum Training seiner Modelle? Viele kostenlose Tools und Consumer-Tarife tun dies. Die Formulierung, auf die Sie achten sollten: „Wir können von Ihnen bereitgestellte Inhalte zur Verbesserung unserer Dienste verwenden."
Was Sie stattdessen suchen: Enterprise-Tools mit Zero-Data-Retention-Richtlinien. Diese Tools verarbeiten Ihre Daten und löschen sie anschließend, ohne mit Ihren Eingaben zu trainieren. Wenn Sie in den Nutzungsbedingungen keine klare Aussage zur Datenspeicherung finden, gehen Sie vom Schlimmsten aus.
2. Vor dem Upload anonymisieren
Bevor Daten ein externes System berühren, müssen alle personenbezogenen Daten systematisch entfernt werden. Dies ist keine Option. Es ist der Mindeststandard.
| Entfernen | Ersetzen durch |
|---|---|
| Namen der Teilnehmer*innen | [Participant_01], [Participant_02] |
| Firmennamen | [Company_A], [Client_Org] |
| E-Mail-Adressen | [email_redacted] |
| Ortsangaben | [City], [Region] |
| Jobtitel (falls identifizierend) | [Senior Role], [Manager] |
| Projektnamen | [Project_X] |
Integrieren Sie dies in Ihren Workflow. Erstellen Sie eine Checkliste, die Sie vor jedem Upload durchgehen. Ein einziger übersehener Name in einem 60-minütigen Transkript kann eine Datenschutzverletzung verursachen.
3. Spezifische, informierte Einwilligung einholen
Ihre Einwilligungserklärung muss die Nutzung von KI-Tools ausdrücklich abdecken. Eine generische Einwilligung („wir werden Ihre Antworten analysieren") reicht nicht aus, wenn KI im Spiel ist.
Seien Sie spezifisch:
- „Transkripte können durch KI-gestützte Analysetools verarbeitet werden"
- „Diese Tools unterliegen Enterprise-Datenvereinbarungen, die ein Training mit Ihren Daten ausschließen"
- „Alle identifizierenden Informationen werden vor der KI-Verarbeitung entfernt"
Teilnehmer*innen haben ein Recht darauf zu erfahren, ob ihre Aussagen von KI-Systemen verarbeitet werden. Vage Formulierungen sind keine informierte Einwilligung.
4. On-Premise-Modelle in Betracht ziehen (der Goldstandard)
Für hochsensible Daten (Gesundheitswesen, Finanzen, Recht oder alles, was strengen regulatorischen Anforderungen unterliegt) ist die sicherste Option, externe Dienste vollständig zu vermeiden.
Open-Source-LLMs können auf lokalen Rechnern oder privaten Servern betrieben werden. Tools wie Ollama, LM Studio oder selbst gehostete Instanzen offener Modelle bieten Ihnen die Vorteile KI-gestützter Analyse, ohne dass Daten Ihre Kontrolle verlassen.
Der Kompromiss besteht in der Einrichtungskomplexität und möglicherweise langsamerer Leistung im Vergleich zu Cloud-Diensten. Aber bei sensiblen Daten ist die Sicherheit es wert. Keine Änderung der Nutzungsbedingungen kann rückwirkend Daten betreffen, die Ihre Infrastruktur nie verlassen haben.
Für spezifische Überlegungen zu KI-vermittelten Teilnehmendeninteraktionen, siehe KI-moderierte Interviews: Das Flickenteppich-Problem und Synthetische Daten in der Forschung: Automatisierte Walkthroughs vs. gefälschte Nutzer*innen.
Die Checkliste für die Einwilligungserklärung
Ihre Einwilligungserklärung ist nicht nur eine rechtliche Absicherung; sie ist ein Vertrauensvertrag. Eine solide Vorlage muss Folgendes enthalten:
1. Der Zweck
Eine einfache, fachbegrifffreie Erklärung dessen, was Sie untersuchen. Teilnehmer*innen sollten verstehen, warum ihr Beitrag wichtig ist.
- ❌ „Wir führen eine formative Usability-Evaluation unseres digitalen Produktökosystems durch."
- ✅ „Wir testen einen neuen Checkout-Prozess, um zu prüfen, ob er einfach zu bedienen ist."
2. Der Ablauf
Was werden die Teilnehmer*innen tatsächlich tun? Seien Sie spezifisch bezüglich der Aktivitäten und des Zeitaufwands.
- „Sie werden Ihren Bildschirm teilen und 3 Aufgaben erledigen, während Sie laut denken."
- „Die Sitzung dauert ungefähr 60 Minuten."
3. Aufzeichnung
Ausdrückliche Genehmigung für Audio- und Videoaufnahmen. Geben Sie an:
- Was aufgezeichnet wird (Bildschirm, Stimme, Gesicht)
- Wer Zugang zu den Aufnahmen hat
- Wie lange die Aufnahmen aufbewahrt werden
4. Datennutzung (KI-Offenlegung)
Geben Sie ausdrücklich an:
- Ob Transkripte durch KI-Tools verarbeitet werden
- Welche Tools verwendet werden (sofern bekannt)
- Welche Datenschutzmaßnahmen bestehen
5. Freiwillige Teilnahme
Machen Sie unmissverständlich deutlich, dass die Teilnahme freiwillig ist:
„Sie können jederzeit, aus jedem Grund und ohne Angabe von Gründen aufhören und erhalten dennoch die volle Vergütung."
Dies ist nicht nur ethisch korrekt, es reduziert auch Nervosität und führt oft zu ehrlicherem Feedback.
6. Kontaktinformationen
Bieten Sie Teilnehmer*innen einen klaren Weg, um:
- Fragen zur Studie zu stellen
- Die Löschung ihrer Daten zu beantragen
- Bedenken über den Umgang mit ihren Daten zu melden
Geben Sie einen Namen und eine E-Mail-Adresse an, nicht nur einen allgemeinen Firmenkontakt.
Der Mensch in der Schleife
Die Nutzung von KI ist ein Kompromiss zwischen Effizienz und Risiko. KI kann Transkription, Codierung und Mustererkennung dramatisch beschleunigen. Aber diese Effizienzgewinne bringen Verantwortung mit sich.
Es ist Ihre ethische Pflicht, der Mensch in der Schleife zu sein:
- Überprüfen Sie, ob KI-generierte Zusammenfassungen das, was Teilnehmer*innen gesagt haben, korrekt wiedergeben
- Stellen Sie sicher, dass von der KI identifizierte Muster keine Artefakte von Trainings-Bias sind
- Behalten Sie die Verantwortung für Schlussfolgerungen, die aus KI-gestützter Analyse gezogen werden
Die teilnehmende Person hat Ihnen ihre Daten anvertraut. Dieses Vertrauen überträgt sich nicht automatisch auf die Tools, die Sie verwenden.
Praktische Ethik im Arbeitsalltag
Über den Umgang mit Daten hinaus zeigt sich ethisches Handeln in alltäglichen Entscheidungen:
Rekrutierung: Verschwenden Sie nicht die Zeit anderer. Wenn jemand beim Screening offensichtlich nicht qualifiziert ist, beenden Sie den Prozess respektvoll. Vergüten Sie die Screening-Zeit, wenn möglich.
Durchführung der Sitzung: Seien Sie ehrlich über den Zweck der Forschung. Täuschen Sie Teilnehmer*innen nicht über den Gegenstand der Untersuchung, es sei denn, es ist unbedingt notwendig und ordnungsgemäß offengelegt.
Berichterstattung: Geben Sie die Ansichten der Teilnehmer*innen korrekt wieder. Wählen Sie keine Zitate selektiv aus, um eine vorher festgelegte Schlussfolgerung zu stützen.
Stakeholder-Druck: Wenn Stakeholder auf Schlussfolgerungen drängen, die die Daten nicht stützen, liegt Ihre ethische Verpflichtung bei der Wahrheit, nicht bei organisatorischer Bequemlichkeit.
Was das für die Praxis bedeutet
Ethik in der Forschung ist kein Kontrollkästchen auf einem Compliance-Formular. Es ist eine Haltung, die Sie bei jeder Entscheidung einnehmen:
- Wie Sie Teilnehmer*innen rekrutieren und vergüten
- Wie Sie Sitzungen durchführen
- Wie Sie Daten handhaben und analysieren
- Wie Sie Ergebnisse berichten und darstellen
Die Teilnehmer*innen, die uns ihre Zeit und Aufmerksamkeit schenken, verdienen unseren Respekt und Schutz. Die Stakeholder, die auf Basis unserer Ergebnisse handeln, verdienen unsere Ehrlichkeit. Das Fachgebiet selbst ist darauf angewiesen, dass Forscher*innen ethische Standards einhalten, die das öffentliche Vertrauen rechtfertigen.
In einer Zeit, in der KI Daten schneller als je zuvor verarbeiten kann, wird die menschliche Verantwortung für ethisches Handeln wichtiger, nicht weniger.
Für eine breitere Perspektive auf KI-Fähigkeiten und -Grenzen in der Forschung, siehe Was KI für UX Research leisten kann und was nicht.