Symbolbild für künstliche Intelligenz

Künstliche Intelligenz

Niemand kommt heute mehr an künstlicher Intelligenz (KI) vorbei. Umso wichtiger ist es, dass Kinder und Jugendliche verstehen, was es mit KI-Tools auf sich hat, wie sie funktionieren, wie sie eingesetzt werden können und wo Vorsicht geboten ist. KI ist ein spannendes Feld. Tauchen Sie mit uns ein.

94%
der weltweit befragten CEOs halten KI wichtig für die Zukunft ihrer Unternehmen (KI-Studie 2022, Deloitte).
26
mal mehr Missbrauchsfälle mit KI wurden 2022 im Vergleich zu 2012 bekannt (AI Index Report 2023, Stanford University).
108
KI-Unternehmen wurden innerhalb von zehn Jahren in der Schweiz gegründet (AI Index Report 2023, Stanford University).
jum-lightbulb

Gut zu wissen

ChatGPT hat das Thema künstliche Intelligenz an den Küchentisch und ins Schulzimmer gebracht. In unserem Alltag ist KI aber schon viel länger präsent: Alexa oder Siri (Sprachassistenzprogramme) basieren genauso auf KI wie die Empfehlungen, die Netflix oder TikTok uns geben. Auch das Handy, das unser Gesicht erkennen muss, um sich zu entsperren, Google-Maps, das uns die beste Route vorschlägt, oder das E-Mail-Programm, das Spam rausfiltert, funktionieren dank KI-Technologie.

Aber der Reihe nach: Alles, was zum Thema KI wichtig ist.

Vereinfacht gesagt ist ein Algorithmus eine Anleitung: Er legt fest, was zu tun ist, um zu einer bestimmten Lösung zu kommen. Da ein einziger Algorithmus in der Regel nicht ausreicht, enthält ein Programm oder eine Software mehrere Algorithmen. Das allein bedeutet aber noch nicht, dass es sich um künstliche Intelligenz handelt.

Programme mit klassischen Algorithmen sind statisch, machen also immer dasselbe. KI-Systeme hingegen stützen sich auf dynamische Algorithmen, die laufend neu dazulernen. Für diesen Lernprozess brauchen sie Unmengen von Daten, die ihnen dabei helfen, Muster zu finden, Zusammenhänge herzustellen und so Schlussfolgerungen zu ziehen.

Unterschieden wird hauptsächlich zwischen zwei Lernarten:

1. Maschinelles Lernen (engl. Machine Learning)

Im Gegensatz zu normaler Software-Entwicklung lernt ein System, das auf maschinellem Lernen basiert, mehrheitlich selbst. Das funktioniert mit Algorithmen, die Daten analysieren, um dann Vorhersagen zu treffen, Wahrscheinlichkeiten zu berechnen und Entscheidungen zu treffen, die z.B. zu Prozessoptimierungen führen sollen. Menschen sind bei dieser Lernart aber noch wichtig, weil sie die Fortschritte des KI-Systems überprüfen und bewerten.

2. Tiefes Lernen (engl. Deep Learning)

Als Teilgebiet des maschinellen Lernens geht das tiefe Lernen nochmals eine Stufe weiter. Zum Einsatz kommt ein künstliches neuronales Netzwerk, das nach dem Vorbild eines menschlichen Gehirns geschaffen wurde. Ein System, das so funktioniert, ist kaum auf Eingriffe von Menschen angewiesen. Es verarbeitet viel grössere Mengen an Informationen, Bildern etc., entwickelt sich kontinuierlich weiter und bestimmt dabei auch selbst, ob seine Entscheidungen richtig sind. Deep Learning bietet viele neue Möglichkeiten, etwa in der Medizin bei der Erkennung von Krankheiten oder in der Cybersicherheit. Es wird aber auch zu einer Art «Black Box», da die Lernprozesse kaum oder gar nicht mehr nachzuvollziehen sind.

ChatGPT (von OpenAI) machte als Textroboter oder Chatbot den Anfang und brachte das Thema künstliche Intelligenz ins Bewusstsein einer breiten Öffentlichkeit. Inzwischen gibt es auch andere Tools, etwa Bard von Google oder Perplexity AI von dem gleichnamigen Unternehmen. Sie alle haben denselben Zweck: Sie kommunizieren mit uns, beantworten Fragen, lösen Rechenaufgaben, schreiben Texte oder übersetzen in eine andere Sprache. Entsprechend vielfältig sind die Anwendungsmöglichkeiten: etwa in der Schule, im Studium, aber auch bei vielen Berufen.

Wenn es nach Hollywood-Filmen geht, wird die Menschheit in naher oder ferner Zukunft von künstlicher Intelligenz kontrolliert. Was ist dran an diesen Szenarien? Um eine Antwort zu finden, müssen wir zwischen zwei Formen von KI unterscheiden:

Schwache KI:

Ob Alexa, ChatGPT, Schachcomputer oder selbstgesteuerte Fahrzeuge – bei all diesen Entwicklungen sprechen wir von schwacher KI. Die Systeme sind zwar hochkomplex und leisten Erstaunliches. Sie sind aber für eine spezifische Aufgabe konzipiert und haben keine umfassende »Intelligenz«.

Starke KI:

Wären solche Systeme umsetzbar, wie wir sie aus Hollywood-Filmen kennen, würden wir quasi von einer »Super-Intelligenz« sprechen, die menschliche Fähigkeiten sogar übertreffen kann. Ein solches System, z.B. ein Roboter, wäre in den unterschiedlichsten Bereichen einsetzbar. Bisher existiert keine starke KI, und Forscher*innen sind sich nicht einig darüber, ob eine solche überhaupt realisierbar ist.

Gerade weil KI-Systeme in vielen Alltagsbereichen präsent sind, kommen auch Heranwachsende mit ihnen in Kontakt. Damit verbunden sind einige Risiken:

  • KI-Tools fragen oft kein Alter ab. So haben auch jüngere Kinder leichten Zugriff auf Systeme, die sie nicht verstehen und die nicht für sie gedacht sind, weil z.B. keine inhaltlichen Jugendschutzfilter integriert sind.
  • ChatGPT und ähnliche Tools ahmen menschliche Kommunikation nach. Für Kinder ist nicht immer erkenntlich, ob am anderen Ende nun tatsächlich jemand sitzt oder nicht.
  • KI-Tools erlauben es z.B., Fotos dahingehend zu manipulieren, dass aus normalen Bildern (kinder-)pornografisches Material wird. Ein Kopf wird aus dem ursprünglichen Foto herausgeschnitten und einfach auf einen fremden nackten Körper gesetzt. Mit solchen oder anderen manipulierten Fotos können Kinder und Jugendliche erpresst oder gemobbt (→ Cybermobbing) werden. Solche Manipulationen sind natürlich verboten und strafbar. Weitere Informationen zu manipulierten Bildern/Videos lesen Sie in unserer Rubrik → Desinformation & Nachrichtenkompetenz (Stichwort Deepfakes/Deepnudes), zu Erpressungen mit solchem Material in der Rubrik → Sexualität & Pornografie (Stichwort Sextortion)
  • Wenn KI-Tools Bilder oder Texte generieren, ist nicht immer klar, woher diese stammen. Strafbare Urheberrechtsverletzungen können die Folge sein.

Entwicklungen im Bereich künstlicher Intelligenz schreiten rasant voran. Neben technologischen Aspekten tritt damit auch eine ganze Reihe anderer Fragen auf, rechtliche oder ethische. Selbst KI-Vorreiter*innen weisen immer wieder auf mögliche Risiken hin. Dazu gehören:

  • Datenschutz: KI-Systeme benötigen grosse Mengen von Daten. Geht es um sensible (also personenbezogene) Daten, kann dies zu Problemen führen, wenn aufgrund der selbstständigen Lernprozesse nicht klar ist, was mit den Daten geschieht. Auch bei KI, die zur Gesichtserkennung, für Profiling oder Tracking eingesetzt wird, oder bei Smart Toys sind Fragen des Datenschutzes zu klären.
  • Desinformation und Manipulation: Wenn eine KI Fake News nicht erkennt und herausfiltert, übernimmt sie die Falschinformationen und verbreitet sie weiter bzw. stützt ihr Wissen darauf. Zudem bieten KI-Tools immer ausgefeiltere Technologien, um Unwahrheiten zu verbreiten. Schon heute sind sogenannte Deepfakes (→ Desinformation & Nachrichtenkompetenz), also von KI veränderte Bilder oder Videos, zunehmend im Netz zu finden.
  • Diskriminierung: Basiert eine KI auf diskriminierenden Daten, übernimmt sie diese Benachteiligungen und stützt ihre Entscheidungen darauf. Ein Beispiel kann ein Tool sein, das Bewerbungsunterlagen filtert.
  • Von KI verursachte Schäden: Wer haftet, wenn ein selbstfahrendes Auto einen Unfall baut? Solche Fragen müssen erst noch geklärt werden.
  • Sicherheit von Arbeitsplätzen: KI verändert die Berufswelt. Aber wie genau? Welche Berufe werden in welchem Masse davon betroffen sein? Und was bedeuten die Veränderungen für die Menschen, die diese Berufe ausüben?
  • KI-gestützte Kriegsführung: Wie in vielen Bereichen kommt künstliche Intelligenz auch bei Kriegen zum Einsatz. Autonome Waffensysteme (umgangssprachlich auch Killerroboter genannt) sind höchst umstritten, weswegen immer wieder Verbote gefordert werden.
  • KI als Energiefresser: Künstliche Intelligenz ist mit enormen Rechenleistungen verbunden, der Stromverbrauch entsprechend hoch. Wissenschaftler befürchten, dass der Verbrauch mit zunehmender Bedeutung von KI weiter stark zunimmt (dpa, 2023). Mit Blick auf den Klimaschutz ist es umso wichtiger, KI von der Entwicklungs- und Trainingsphase bis hin zur Anwendung energieeffizenter zu gestalten. Google und andere Unternehmen geben an, dass sie in diesem Bereich bereits aktiv sind. Zudem erhofft sich die Energiewirtschaft, dank KI neue Lösungen für den Klimaschutz zu finden.
jum-umbrella

Was sollte mein Kind beachten?

Ein Verständnis dafür zu haben, was künstliche Intelligenz ist und wie sich ein KI-Tool von einer normalen digitalen Anwendung unterscheidet, ist wichtig. Ihrem Kind sollte bewusst sein, dass viele Apps und Dienste bereits KI verwenden. Das gilt z.B. für TikTok und Netflix, für Smartwatches und andere Wearables, oder für den Chatbot «My AI» auf Snapchat, der ganz normal in der Freundesliste auftaucht.

Genau wie sonst im Netz gilt auch bei KI: Glaube nicht alles, was du liest und siehst. KI macht es sogar noch leichter, zum Beispiel Fotos oder Videos zu verändern. Gerade bei Tools wie ChatGPT, die nicht immer eine Quelle angeben, ist ein → Fakten-Check angezeigt.

Wenn Fotos und Videos leicht zu verfälschen sind, kann das jemand auch böswillig ausnutzen und z.B. meinen Kopf in eine pornografische Szene montieren, um das Bild dann im Klassenchat zu verbreiten. Heranwachsende sollen nicht nur über diese Möglichkeiten informiert sein, sondern brauchen vor allem auch eine Ansprechperson, wenn etwas Unangenehmes passiert.

Cybermobbing
Cybergrooming

KI-Anwendungen haben oft keinen integrierten Jugendschutz. Kinder können also z.B. bei der Nutzung von ChatGPT auf Inhalte stossen, die nicht für ihr Alter gedacht sind und entsprechend Angst machen, verunsichern oder schockieren können.

Künstliche Intelligenz funktioniert nur, wenn Daten zur Verfügung stehen. Egal, ob es sich um KI oder etwas anderes geht: Persönliche Daten wie Name, Alter, Standort oder auch Interessen sollten nicht preisgegeben werden.

Mit ChatGPT oder Bard ist es ganz leicht, Hausaufgaben zu erledigen. Die Chatbots nehmen es aber oft nicht so genau mit den Quellenangaben. Wenn Texte, die eigentlich urheberrechtlich geschützt sind, veröffentlicht werden, kann man sich strafbar machen. Mehr über einen sinnvollen Umgang mit ChatGPT & Co. in der Schule lesen Sie in unserem → Blogbeitrag.

Wichtig

Erkunden Sie gemeinsam die Welt der KI und achten Sie auf die Risiken! (raw=Erkunden Sie gemeinsam die Welt der KI und achten Sie auf die Risiken!

jum-hand

Was können Eltern tun?

Informieren Sie sich selbst über KI und sprechen Sie mit Ihrem Kind altersgerecht darüber. Es gibt Erklärvideos, die sie gemeinsam anschauen können. Oder Sie fordern z.B. Alexa oder Siri auf, einfach zu beschreiben, wie sie funktionieren. Mit älteren Kindern, die Snapchat nutzen (Mindestalter: 13 Jahre), können Sie den Chatbot «My AI» ausprobieren. Das alles kann ein Ausgangspunkt für ein Gespräch sein. Schauen Sie sich zudem gemeinsam andere Beispiele von KI im Alltag an. Kann Ihr Kind erkennen, wo KI eingesetzt wird?

Begleiten Sie Ihr Kind bei der Nutzung, z.B. mit einer Frage an ChatGPT. Suchen Sie nach kreativen Tools und gestalten Sie gemeinsam mit KI-Anwendungen Fotos, Videos, Musik oder anderes.

Sprechen Sie mit Ihrem Kind darüber, dass KI-Tools auch missbraucht werden können, etwa indem Unwahrheiten verbreitet, Fotos/Videos manipuliert oder sensible Daten gesammelt werden. Regen Sie an, immer kritisch zu sein und nicht alles zu glauben. Zeigen Sie Tools, die dabei helfen, Fake News und Manipulationen zu entlarven (→ Desinformation & Nachrichtenkompetenz). Machen Sie deutlich, wie wichtig es ist, sensible Daten zu schützen. Und seien Sie als Ansprechperson da, wenn Ihr Kind Fragen hat oder auf etwas Unangenehmes stösst.

Auch sogenannte Smart Toys nutzen oft eine Form von künstlicher Intelligenz. Was es hier zu beachten gilt, haben wir in einem → Blogbeitrag zusammengefasst.

jum-hand

Weitere nützliche Infos