Gebrauchsanweisung KI
Um KI richtig einzusetzen, muss man die Grundzüge kennen, wie KI funktioniert. Wir müssen den Umgang lernen und dürfen unseren eigenen Kopf nie ausschalten. Der Mensch neigt oftmals zu einfachen Lösungen und ist leicht zu beeinflussen. Das haben schon immer Menschen, beispielsweise auch Medienmacher wie Axel Springer mit der Bild-Zeitung, ausgenutzt. Das Problem ist nicht neu. Aber die Künstliche Intelligenz ist ein Werkzeug, das in seiner Gefährlichkeit nicht nur Medien und die Bereitstellung von Informationen vergangener Zeiten weit übertrifft.
Das Problem der KI bringt meine Mutter bestens auf den Punkt: Sie ruft in einer Arztpraxis an, die KI nimmt ab. Einen Termin zu vereinbaren schlägt aufgrund der Komplexität ihrer Anliegen fehl, kein Mensch hebt ab oder ruft zurück. Dazu fehlen die Kapazitäten.
Wie funktioniert die Künstliche Intelligenz?
Die zentrale Technik sind sogenannte „neuronale Netze“ – inspiriert vom Gehirn, aber rein mathematisch. Sie bestehen aus Schichten von „Neuronen“, die Eingaben gewichten und transformieren.
Die künstliche Intelligenz ist mit großen Datenmengen trainiert. Diese Daten enthalten Informationen und Beispiele, aus denen die KI ihre Antworten auf Basis von Wahrscheinlichkeiten und statistischen Berechnungen generiert. Zum Beispiel erkennt die KI im Modell für die Bilderkennung Katzen, indem sie aus Millionen Katzenbildern die Muster der Pixel vergleicht und lernt, welche Muster typisch sind.
Für die KI ist ein Bild keine Szene, sondern eine Zahlenmatrix. Jede Graustufe, jede Farbe wird als Zahlenwert berechnet. Mit Filtern, in einem Prozess des hierarchischen Lernens, die über das Bild gleiten, werden Muster erkannt wie Kanten, Ecken, Texturen und später komplexe Figuren wie Augen, Gesichter und Gegenstände wie Räder. So baut das Modell ein mehrstufiges Verständnis auf: In der 1. Ebene sind es Linien und Kanten, in der 2. Ebene Formen, in der 3. Ebene Objektteile, um in der 4. Ebene komplette Objekte wie Katzen zu erkennen. Am Ende klassifiziert, also entscheidet die KI in einem Modell der Wahrscheinlichkeit: Zu 93 % ist es eine Katze, zu 5 % ein Hund und zu 2 % ein Auto. Das Modell lernt mit bekannten Bildern. Es benennt das Bild und die „richtige“ Antwort wie „das ist eine Katze“, berechnet den Fehler und passt die Gewichte an.
Die KI erkennt keine „Bedeutung“ wie ein „Mensch“ oder eine „Katze“. Sie erkennt alleine statistische Muster. Deshalb kann sie beispielsweise durch ungewöhnliche Perspektiven oder manipulierte Bilder fehlgeleitet werden.
Ein Sprachmodell analysiert riesige Textmengen und lernt Wahrscheinlichkeiten für Wortfolgen. Vereinfacht gesagt: Es berechnet, welches Wort am wahrscheinlichsten als Nächstes kommt – unter Berücksichtigung des gesamten bisherigen Kontexts.
Das Modell passt seine internen Parameter (Gewichte) so an, dass die Ausgabe möglichst korrekt wirkt.
Beim Training erfolgt eine interaktive Verbesserung des Modells, sozusagen in einer Schleife der Wiederholungen: Es macht eine Vorhersage. Diese wird mit der möglicherweise richtigen Antwort verglichen. Der Fehler wird berechnet. Die Gewichte werden angepasst. Das wird millionenfach wiederholt.
Dabei ist es wichtig, zu unterscheiden: Die KI versteht nicht wie ein Mensch. Sie arbeitet nach Statistik, Wahrscheinlichkeiten und Optimierungen. Das führt zwar oftmals zu überzeugenden Ergebnissen, aber nicht zu einem echten Verständnis oder zu Bewusstsein.
Welche Gefahren birgt die KI?
Die Künstliche Intelligenz hat reale Risiken, die je nach Einsatzbereich unterschiedlich schwer wiegen. Die Gefahren kann man in technische, gesellschaftliche und sicherheitsrelevante Kategorien einteilen.
KI-Systeme können systematisch falsche Ergebnisse liefern, besonders außerhalb ihrer Trainingsdaten. Beispielsweise versagt die Bilderkennung bei ungewöhnlichen Lichtverhältnissen oder Perspektiven. Fehlentscheidungen und mangelnde Zuverlässigkeit können insbesondere in kritischen Bereichen wie Medizin oder autonomem Fahren direkten Schaden verursachen.
Die Modelle übernehmen ungeprüft statische Verzerrungen aus den Trainingsdaten. Diese Probleme sind strukturell bedingt und führen so zu Diskriminierung, etwa bei Bewerbungsverfahren, Kreditvergabe oder Gesichtserkennung.
Mit der KI lassen sich massenhaft Inhalte generieren, wie täuschend echt wirkende Texte, Deepfakes und automatisierte Propaganda. Die Desinformation und Manipulation erschwert es, Wahrheit von Fälschung zu unterscheiden, und wird so gesellschaftliche und politische Prozesse destabilisieren.
Künstliche Intelligenz automatisiert kognitive Tätigkeiten und nicht nur manuelle Arbeiten. Betroffen sind etwa Kundenservice, Übersetzung und Programmierung. Das wird mehr und mehr zu Rationalisierung von Arbeitsplätzen führen, zu Jobverlust, Verdrängung und in einen strukturellen Wandel der Arbeitswelt münden.
Die KI birgt nicht unerhebliche Sicherheitsrisiken. Für automatisierte Cyberangriffe, bessere Phishing-Mails und die Analyse von Schwachstellen kann die KI offensiv genutzt werden. Die Verteidigung dagegen wird immer schwerer und komplexer.
Nur noch sehr wenige werden verstehen, wie KI funktioniert. Fortgeschrittene KI-Systeme sind schwer vollständig zu verstehen und so noch weniger zu kontrollieren. Wir Menschen verlieren die Kontrolle über komplexe Systeme. Dieses Back-Box-Problem bewirkt, dass wir zwar wissen, was das System entscheidet, aber nicht exakt, warum.
So wächst zudem die Abhängigkeit von Technologie. Je mehr wir uns als Gesellschaft auf Künstliche Intelligenz verlassen und Entscheidungen an die KI delegieren, desto mehr nehmen unsere menschlichen Fähigkeiten ab. Wir verlieren die Fähigkeit des Denkens.
Langfristige Risiken könnten sein, dass fortgeschrittene KI-Systeme eigene Ziele verfolgen, die nicht vollständig mit menschlichen Interessen übereinstimmen.
Umso wichtiger wird es, wenn wir uns Regeln geben, wie wir die KI als Werkzeug einsetzen. Wir müssen lernen, dass wir auch die KI, aber mehr noch unser menschliches Denken benötigen, um die Ergebnisse der KI zu hinterfragen und zu überprüfen. Ein Faktencheck der Aussagen der KI bleibt unerlässlich. Die künstliche Intelligenz ist und bleibt eine künstliche Intelligenz nach dem mathematischen Prinzip der Wahrscheinlichkeit, die Fähigkeit des menschlichen Denkens und mehr noch des Wahrnehmens und Fühlens kann sie nicht ersetzen.
👉 Hinweis: Wenn du diesen Beitrag auf Mastodon oder Facebook teilst, werden Daten an diese Plattformen übertragen. Dort gelten die eigenen Datenschutzregeln, auf die ich keinen Einfluss habe.








Hinterlasse ein Kommentar
An der Diskussion beteiligen?Hinterlasse uns deinen Kommentar! Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.
Name und E-Mail-Adresse werden ausschließlich für diese Kommentarfunktion verwendet und nicht an Dritte weitergegeben.