Die Schweizer Medienbranche zieht klare Linien für den Umgang mit Künstlicher Intelligenz. Ein neuer Verhaltenskodex legt feste Regeln für Redaktion, Kennzeichnung und Kontrolle fest. Ziel ist mehr Vertrauen bei Leserinnen und Lesern sowie ein sicherer Umgang mit KI im Medienalltag.
Verbindliche Regeln für Redaktionen
Mehrere große Medienhäuser und Verbände in der Schweiz haben sich auf einen gemeinsamen KI-Kodex geeinigt. Er soll bis Ende des Jahres in den Betrieben ankommen und den Einsatz von KI im redaktionellen Alltag klar regeln.
Der Kodex richtet sich an Medienunternehmen, die Texte, Bilder, Audio oder andere Inhalte mit Hilfe von KI erstellen, prüfen oder bearbeiten. Im Zentrum steht ein verantwortlicher Umgang mit Technik, die immer schneller in Produktionsabläufe einzieht.
Vertrauen als Maßstab
Die Initiative verfolgt ein klares Ziel: Das Vertrauen in Medien soll erhalten bleiben. Gerade im Journalismus zählt Glaubwürdigkeit. Wer Inhalte mit KI erstellt, muss offenlegen, wie diese entstanden sind und wer die letzte Prüfung übernimmt.
Der Kodex setzt auf Selbstregulierung. Er ist an europäische Vorgaben angelehnt und gibt Medienhäusern einen festen Rahmen für den Umgang mit neuen Werkzeugen.
Vier Grundsätze stehen im Mittelpunkt
Der Kodex baut auf vier Pfeilern auf: Fachwissen im Umgang mit KI, Schutz demokratischer Prozesse, Datenschutz und Transparenz. Diese Punkte sollen in allen Häusern praktisch umgesetzt werden.
Dazu gehört, dass Mitarbeitende geschult werden, bevor sie KI-Systeme im Arbeitsalltag einsetzen. Redaktionelle Inhalte und vertrauliche Daten brauchen einen besonderen Schutz. Medienunternehmen müssen außerdem offenlegen, wo und wie sie KI einsetzen.
Kennzeichnung wird Pflicht
Ein zentraler Punkt sind klare Hinweise für das Publikum. Vollständig KI-erzeugte Inhalte müssen erkennbar sein. Das gilt für Texte, Bilder und Audio. Auch Inhalte, die ohne Prüfung veröffentlicht werden, brauchen eine klare Kennzeichnung.
Darüber hinaus müssen mit KI bearbeitete Beiträge geprüft werden, bevor sie erscheinen. So bleibt die publizistische Verantwortung beim Menschen und nicht bei der Maschine.
Auch Chatbots und andere Systeme, die mit Nutzerinnen und Nutzern sprechen, fallen unter die Regeln. Wenn sie leicht mit echten Menschen verwechselt werden können, muss die Kennzeichnung klar und deutlich sein.
Kontrolle durch Meldestellen und Audit
Für Verstöße richten die Unternehmen eigene Meldestellen ein. Dort können Hinweise zu Problemen mit KI im Medienalltag eingereicht werden. Ergänzend ist eine unabhängige Ombudsstelle vorgesehen, die jährlich Bericht erstatten soll.
Parallel startet ein „Responsible AI“-Audit mit Zertifikat. Damit sollen die Betriebe nachweisen, dass sie die Regeln einhalten. Das schafft klare Maßstäbe für interne Abläufe und für die Öffentlichkeit.
Deutschland setzt auf erste Schritte
Auch in Deutschland wächst der Druck auf klare Regeln. Mehrere Medienorganisationen und Sender fordern gemeinsame Vorgaben für KI und Urheberrecht. Die Debatte zeigt, wie groß der Bedarf an festen Leitlinien ist.
Die öffentlich-rechtlichen Sender haben bereits einen eigenen Kodex beschlossen. Dort gilt: Menschen tragen die publizistische Verantwortung. Transparenz und Kennzeichnung spielen dabei eine zentrale Rolle.
Europa zieht nach
Ein wichtiger Punkt ist die kommende Pflicht zur Kennzeichnung von KI-Inhalten auf europäischer Ebene. Ab dem 2. August 2026 greift diese Vorgabe im EU AI Act. Für Medienhäuser bedeutet das mehr Klarheit und neue Pflichten im Alltag.
Der Schweizer Kodex zeigt, wie Branche und Unternehmen schon heute vorangehen können. Wer KI im Medienbereich einsetzt, braucht feste Regeln, klare Zuständigkeiten und eine offene Kommunikation nach außen.
Für Medienunternehmen ist das kein Randthema. Wer Vertrauen behalten will, muss bei KI früh klare Grenzen ziehen und Abläufe sauber regeln.