Themen
Künstliche Intelligenz (KI) ist Teil unseres Alltags. Manchmal so, dass wir sie bewusst einsetzen, zum Beispiel mit ChatGPT. Aber oft auch ganz versteckt. Denn Alexa oder Siri (Sprachassistenzprogramme) basieren genauso auf KI wie die Empfehlungen, die Netflix oder TikTok uns geben. Auch das Handy, das unser Gesicht erkennen muss, um sich zu entsperren, Google Maps, das uns die beste Route vorschlägt, oder das E-Mail-Programm, das Spam rausfiltert, funktionieren dank KI-Technologie.
Umso wichtiger ist es, dass Kinder und Jugendliche verstehen, was es damit auf sich hat, wie KI eingesetzt werden kann und wo Vorsicht geboten ist. Das heisst zum Beispiel:
KI wird oft eingesetzt, ohne dass wir es merken.
Texte, die von KI verfasst werden, klingen oft toll, können aber falsche Informationen enthalten.
Bilder und Videos können mit KI manipuliert oder ganz neu generiert werden.
KI kann steuern, was wir im Internet zu sehen bekommen. Das kann die Sicht auf die Welt einengen.
Ein besseres Verständnis und ein kritischer Blick helfen, KI gezielt, sinnvoll und kreativ zu nutzen.
Inhalt
Vereinfacht gesagt ist ein Algorithmus eine Anleitung: Er legt fest, was zu tun ist, um zu einer bestimmten Lösung zu kommen. Da ein einziger Algorithmus in der Regel nicht ausreicht, enthält ein Programm oder eine Software mehrere Algorithmen. Das allein bedeutet aber noch nicht, dass es sich um künstliche Intelligenz handelt.
Programme mit klassischen Algorithmen sind statisch, machen also immer dasselbe. KI-Systeme hingegen stützen sich auf dynamische Algorithmen, die laufend neu dazulernen. Für diesen Lernprozess brauchen sie Unmengen von Daten, die ihnen dabei helfen, Muster zu finden, Zusammenhänge herzustellen und so Schlussfolgerungen zu ziehen.
Wenn mir TikTok ein neues Video vorschlägt, das mir gefallen könnte, hat das auch mit KI-Algorithmen zu tun. Dasselbe gilt für Netflix oder Spotify. Die Algorithmen analysieren ständig, was wir anschauen, liken oder abbrechen. Daraus leiten sie ab, was uns vermutlich gefällt. So entsteht ein personalisiertes Angebot.
Das kann praktisch sein, weil wir schneller zu Inhalten kommen, die wir mögen. Gleichzeitig kann es aber dazu führen, dass wir immer mehr vom Gleichen sehen – also z. B. nur eine bestimmte Meinung oder eine Art von Videos. Das nennt man Filterblase oder Echokammer.
Wir sprechen von generativer KI, wenn ein Tool Inhalte wie Texte, Bilder, Videos oder Musik selbst erstellen kann. Bekannte Beispiele sind:
ChatGPT, Google Gemini, Bing Chat, Microsoft Copilot: Textbasierte Chatbots, die Texte schreiben oder Fragen auf menschlich wirkende Weise beantworten.
Siri, Alexa, Cortana: Sprachassistenten bzw. sprachbasierte Chatbots. Sie nutzen KI, um gesprochene Anweisungen zu verstehen.
DALL·E, Flux, Midjourney: Mit Texteingaben lassen sich komplett neue Bilder erstellen oder bestehende Fotos verändern.
VEO3, RunwayML, Lumen5: Viedeogeneratoren funktionieren nach demselben Prinzip wie Bildgeneratoren. So können aus einer Beschreibung Videos entstehen oder beste-hende Videos bearbeitet werden.
Suno, Udio, MusicGPT: Tools, die Musikstücke komponieren.
KI-Tools machen aber auch Fehler, erfinden Inhalte oder verbreiten Diskriminierungen. Ausserdem brauchen ChatGPT & Co. riesige Datenmengen, um sich ständig weiterzuentwickeln. Alles, was Nutzende eingeben, wird unter Umständen dafür verwendet.
Wenn es nach Hollywood-Filmen geht, wird die Menschheit in naher oder ferner Zukunft von künstlicher Intelligenz kontrolliert. Was ist dran an diesen Szenarien? Um eine Antwort zu finden, müssen wir zwischen zwei Formen von KI unterscheiden:
Schwache KI: Ob Alexa, ChatGPT, Schachcomputer oder selbstgesteuerte Fahrzeuge – bei all diesen Entwicklungen sprechen wir von schwacher KI. Die Systeme sind zwar hochkomplex und leisten Erstaunliches. Sie sind aber für eine spezifische Aufgabe konzipiert und haben keine umfassende «Intelligenz».
Starke KI: Wären solche Systeme umsetzbar, wie wir sie aus Hollywood-Filmen kennen, würden wir quasi von einer «Super-Intelligenz» sprechen, die menschliche Fähigkeiten sogar übertreffen kann. Ein solches System, z. B. ein Roboter, wäre in den unterschiedlichsten Bereichen einsetzbar. Bisher existiert keine starke KI, und in der Wissenschaft ist man sich nicht einig darüber, ob das überhaupt realisierbar ist.
Entwicklungen im Bereich künstlicher Intelligenz schreiten rasant voran. Damit treten viele rechtliche, ethische oder sicherheitsrelevante Fragen auf.
KI kann halluzinieren, das heisst Inhalte erfinden. Sie stellt falsche Informationen als wahr dar, zum Beispiel erfundene Fakten oder Zitate. Wenn eine KI Fake News nicht erkennt und herausfiltert, übernimmt sie die Falschinformationen und verbreitet sie weiter bzw. stützt ihr Wissen darauf. Zudem bieten KI-Tools immer ausgefeiltere Technologien, um Unwahrheiten zu verbreiten.
Social Bots sind von KI gesteuerte Profile in den sozialen Medien, die eine menschliche Identität vortäuschen, indem sie sich wie reale Menschen verhalten. Sie agieren autonom und können zur Manipulation und Verwirrung eingesetzt werden.
Die Algorithmen, die für Social Bots verwendet werden, basieren grösstenteils auf Künstlicher Intelligenz. In Netzwerken wie Instagram oder X können sie automatisch Beiträge liken, kommentieren, teilen oder selbst erstellen. So können sie dazu beitragen, dass Trends und Meinungsbilder verzerrt werden.
Für Kinder und Jugendliche ist es wichtig zu wissen, dass nicht jedes Profil auf sozialen Netzwerken oder in Onlineforen von einer realen Person stammen muss, selbst wenn es sehr echt aussieht. Auch Kommentare in Diskussionen, Freundschaftsanfragen und andere Online-Aktivitäten müssen nicht von echten Menschen stammen.
Desinformation
Hass und Radikalisierung
Soziale Netzwerke
Deepfakes sind von KI veränderte oder komplett verfälschte Bilder, Videos und Tonaufnahmen, die täuschend echt wirken. Sie werden auch für Erpressungen missbraucht.
Sexuelle Übergriffe
Basiert eine KI auf diskriminierenden Daten, übernimmt sie diese Benachteiligungen und stützt ihre Entscheidungen darauf. Ein Beispiel kann ein Tool sein, das Bewerbungsunterlagen filtert. Auch stereotype Denkmuster – etwa zu Geschlecht, Hautfarbe oder Herkunft – können verbreitet werden.
Hass und Radikalisierung
KI-Systeme benötigen grosse Mengen von Daten. Geht es um sensible (also personenbezogene) Daten, kann dies zu Problemen führen, wenn aufgrund der selbstständigen Lernprozesse nicht klar ist, was mit den Daten geschieht. Auch bei KI, die zur Gesichtserkennung, für Profiling oder Tracking eingesetzt wird, oder bei Smart Toys sind Fragen des Datenschutzes zu klären.
Datenschutz
Gerade weil KI-Systeme in vielen Alltagsbereichen präsent sind, kommen auch Heranwachsende mit ihnen in Kontakt. Damit sind einige Risiken verbunden:
KI-Tools fragen oft kein Alter ab. So haben auch jüngere Kinder leichten Zugriff auf Systeme, die sie nicht verstehen und die nicht für sie gedacht sind, weil z. B. keine inhaltlichen Jugendschutzfilter integriert sind.
ChatGPT und ähnliche Tools ahmen menschliche Kommunikation nach. Für Kinder ist nicht immer erkenntlich, ob am anderen Ende tatsächlich jemand sitzt oder nicht.
KI-Tools erlauben es z. B., Fotos so zu manipulieren, dass aus normalen Bildern (kinder-)pornografisches Material wird. Ein Kopf wird aus dem ursprünglichen Foto herausgeschnitten und einfach auf einen fremden nackten Körper gesetzt. Mit solchen oder anderen manipulierten Fotos (sogenannte Deepnudes) können Kinder und Jugendliche erpresst oder gemobbt werden. Solche Manipulationen sind natürlich verboten und strafbar.
Wenn KI-Tools Bilder oder Texte generieren, ist nicht immer klar, woher diese stammen. Nicht selten liegen den «neuen» Inhalten daher strafbare Urheberrechtsverletzungen zugrunde.
In der Schweiz gibt es aktuell (Stand Juni 2025) keine spezifische Gesetzgebung zu KI. Bis Ende 2026 will der Bund jedoch eine Vernehmlassungsvorlage für neue Regeln erarbeiten. Im Fokus stehen Aspekte wie Datenschutz, Transparenz, Nichtdiskriminierung und Aufsicht. Dadurch soll ermöglicht werden, die bereits bestehende KI-Konvention des Europarates zu ratifizieren.
Das bedeutet aber nicht, dass KI sich in einem rechtsfreien Raum bewegt oder dass missbräuchliche Anwendungen keine rechtlichen Folgen haben können. Bestehende Rechtsgrundlagen wie das Strafrecht (Strafgesetzbuch, StGB), das Zivilrecht (Zivilgesetzbuch, ZGB) oder Schutzrechte, wenn es um geistiges Eigentum geht (z. B. Urheberrecht), greifen grundsätzlich schon jetzt. Konkret können beispielsweise folgende Artikel zur Geltung kommen:
Art. 258 ff. StGB: Verbrechen und Vergehen gegen den öffentlichen Frieden
Art. 261bis StGB: Diskriminierung und Aufruf zu Hass
Art. 173 ff. StGB: Ehrverletzungen
Art. 179decies StGB: Identitätsmissbrauch
Art. 28 ff. ZGB: Persönlichkeitsverletzungen
Letzte Aktualisierung des Textes am 12.11.25