Künstliche Intelligenz (KI) – ein Überblick

KI ist längst Teil unseres Alltags – oft, ohne dass wir es merken. Sprachassistenten, smarte Haushaltsgeräte oder automatisierte Prozesse in der Industrie – all das läuft mit KI. Während die einen sie als Chance feiern, sehen andere sie als Bedrohung für Jobs und Wahrheit.
Klar ist: KI verändert, wie wir arbeiten und Informationen wahrnehmen. Sie spart Zeit, automatisiert Abläufe und kann sogar kreativ werden. Gleichzeitig macht sie es schwieriger, echte von gefälschten Inhalten zu unterscheiden. Deepfakes und manipulierte Bilder sind längst Realität.
Doch was steckt eigentlich hinter dem Begriff „Künstliche Intelligenz“? Welche Anwendungsgebiete gibt es, wo liegen die Chancen und wo die Risiken? Von den Grundlagen der KI über ihre Teilbereiche und Einsatzmöglichkeiten bis hin zu rechtlichen Aspekten und historischen Entwicklungen – hier bekommen Sie einen umfassenden Überblick.
Inhaltverzeichnis
Künstliche Intelligenz – was ist das?
Künstliche Intelligenz (KI) ist ein Teilbereich der Informatik. Gegenstand der KI ist die Entwicklung von Programmen (Software, Apps) und technologischen Systemen (als Kombination aus Soft- und Hardware), die in der Lage sind, Aufgaben auszuführen, zu deren Bearbeitung Fähigkeiten zur Anpassung und Problemlösung – Intelligenz – benötigt werden.
Diese Intelligenz kann auf Algorithmen als programmierten Abläufen zur Mustererkennung und Verarbeitung beruhen; im Fall der genetischen Algorithmen können sich diese Arbeitsanweisungen auch selbst optimieren, um bessere Ergebnisse zu liefern. Diese Algorithmen-basierte Vorgehensweise ist Grundlage des maschinellen Lernens (ML). Beim Deep Learning, dem „tiefen Lernen“ als Teildisziplin des maschinellen Lernens, werden dagegen künstliche neuronale Netze trainiert. Diese sind der Funktionsweise des menschlichen Gehirns nachempfunden und können mittlerweile beliebig groß (bzw. tief) skaliert werden – nur noch abhängig von der Rechen- und Speicherleistung der verwendeten Hardware. Stark vereinfacht ausgedrückt handelt es sich beim maschinellen Lernen um lineare, beim Deep Learning um vernetzte und parallel ablaufende Prozesse.
Generell unterschieden werden kann bei der künstlichen Intelligenz zwischen der analytischen und der generativen KI.
- Die analytische KI beruht auf statistischen oder logischen Modellen, mit deren Hilfe Muster und Regeln in Daten erkannt, verglichen und bewertet werden können. So lassen sich insbesondere in großen Datenmengen, Big Data, die für Menschen nicht mehr überschaubar sind, anhand selbst minimaler Abweichungen in der Verteilung oder der Größe der Werte Trends oder Aussagen ableiten.
- Die generative KI geht in ihrer Funktionalität darüber hinaus, da sie die zur Verfügung stehenden Daten auch neu kombinieren kann und damit ein gewisses Maß an Kreativität erreicht. Durch Anwendung bekannter, vorgegebener oder selbst identifizierter bzw. erstellter Regeln und durch Rückgriff auf die vorhandenen Trainingsdaten sind generative Systeme dann in der Lage, selbst neue Inhalte – wie Texte, Bilder, Audios und Videos – zu erzeugen.
Grundlage für beide Arten der KI sind einerseits enorm große Datenmengen, andererseits genetische Algorithmen, sich selbst weiter entwickelnde Ablaufvorschriften in Programmen.
- Die Menge an Daten für das Training muss möglichst groß sein, um Grundbausteine wie einzelne Wörter und Begriffe, Zeichen, Bild- oder Sprachelemente in unterschiedlichen Zusammenhängen und Umgebungen wahrnehmen, identifizieren und zuordnen zu können. Die Auswahl der Übungsdaten sollte dabei ein großes Spektrum an Quellen umfassen und idealerweise repräsentativ erfolgen, um eine möglichst diskriminierungsfreie Applikation zu erstellen. Persönliche Ansichten, unbewusste Vorurteile oder die bewusste Begrenzung auf bestimmte politische oder gesellschaftliche Inhalte sollten unbedingt vermieden werden, um nicht die ethischen Prinzipien zu verletzen und damit gegen die europaweit geltende KI-Verordnung (KI-VO) zu verstoßen (siehe „Rechtsgrundlagen“). Eines der wesentlichen Merkmale von KI ist, dass sie über informationelles Feedback die Erkennung, Bewertung und Neukombination der Muster im Hinblick auf ein bestimmtes Kriterium verbessern kann.
- Genetische Algorithmen ahmen die natürlichen Prozesse der Evolution durch Veränderung und Selektion nach. Sie dienen der Optimierung bestehender Ablaufvorschriften und Programmschritte sowie der Suche nach neuen Ansätzen, um Lösungen für komplexe Probleme zu finden. Dazu werden Populationen von möglichen Lösungen generiert: Programme schreiben Programme und erzeugen Abstammungslinien. Diese Nachkommen werden probeweise angewendet. Die mit den besten Problemlösungsfähigkeiten werden dann schrittweise verbessert.
Zwei Eigenschaften zeichnen Systeme, die künstliche Intelligenz nutzen, dann aus: Adaptivität und Autonomie. Adaptivität kann mit Lernfähigkeit übersetzt werden: Sie bezeichnet die Fähigkeit, sich anzupassen, also aus Erfahrungen und Interaktionen zu lernen. So können sich KI-Systeme kontinuierlich weiterentwickeln und optimieren. Autonomie bedeutet, dass die KI-Steuerung selbstständig Entscheidungen trifft und diese umsetzt, also handelt – ohne menschliches Zutun. Am deutlichsten zeigen sich diese beiden Eigenschaften beim autonomen Fahren: Sensoren liefern Informationen, etwa über die Verkehrsführung und die anderen Verkehrsteilnehmer. Aktoren führen Handlungen wie Beschleunigungs- und Bremsvorgänge oder Richtungswechsel aus. Das Ergebnis wird analysiert und bewertet und dient zur Verbesserung des Systemverhaltens.
KI-Systeme verfügen damit über kognitive und intellektuelle Fähigkeiten. Sie können aus Erfahrungen lernen und auf neue Informationen reagieren, Probleme lösen, ihre Umwelt wahrnehmen, Sprache verarbeiten, übersetzen, kreativ werden und Entscheidungen treffen. Zwei grundlegende menschliche Eigenschaften fehlen ihnen allerdings bislang noch: ein Bewusstsein, also die Fähigkeit zur Selbsterkenntnis und Selbstreflexion, sowie Humor. Aber wie lange noch – und wie lässt sich deren Erwerb feststellen? An dieser Stelle setzen viele Science-fiction-Stories an.
Das Fraunhofer-Institut für Kognitive Systeme (IKS) definiert künstliche Intelligenz wie folgt:
„Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik. Sie imitiert menschliche kognitive Fähigkeiten, indem sie Informationen aus Eingabedaten erkennt und sortiert. Diese Intelligenz kann auf programmierten Abläufen basieren oder durch maschinelles Lernen erzeugt werden.“
(https://www.iks.fraunhofer.de/de/themen/kuenstliche-intelligenz.html)
Auf der Seite der Bundesregierung wird „Künstliche Intelligenz“ so definiert:
„Künstliche Intelligenz beschreibt die Fähigkeit von Maschinen, basierend auf Algorithmen Aufgaben autonom auszuführen und dabei die Problemlösungs- und Entscheidungsfähigkeiten des menschlichen Verstandes nachzuahmen.“
(https://www.bundesregierung.de/breg-de/aktuelles/ai-act-2285944)
Auch die „Verordnung über künstliche Intelligenz“ (KI-VO) enthält eine Definition von KI, KI-Modellen und KI-Systemen, speziell für solche mit „allgemeinem Verwendungszweck“:
„Für die Zwecke dieser Verordnung bezeichnet der Ausdruck
- ,KI-System‘ ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können;
…
- ,KI-Modell mit allgemeinem Verwendungszweck‘ ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine erhebliche allgemeine Verwendbarkeit aufweist und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann, ausgenommen KI-Modelle, die vor ihrem Inverkehrbringen für Forschungs- und Entwicklungstätigkeiten oder die Konzipierung von Prototypen eingesetzt werden;
…
- ,KI-System mit allgemeinem Verwendungszweck‘ ein KI-System, das auf einem KI-Modell mit allgemeinem Verwendungszweck beruht und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen;“
Alle Aktivitäten im Bereich der künstlichen Intelligenz (KI) sind in der Europäischen Union (EU) rechtlich einheitlich geregelt – mit dem weltweit ersten „KI-Gesetz“. Grundlage ist die EU-weite Rahmenrichtlinie „Artificial Intelligence Act“ (AI Act), die in Deutschland in Form der „Verordnung über künstliche Intelligenz“ (KI-VO) umgesetzt wird. Sie soll die verantwortungsvolle Entwicklung und Verwendung von KI fördern, deren missbräuchlichen Einsatz verhindern und potenziellen Risiken vorbeugen.
Die Notwendigkeit der „Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz“ wird am Anfang des Verordnungstextes ausführlich erläutert. Als ausschlaggebend für die Ausarbeitung der umfangreichen rechtlichen Regelung werden 180 Gründe (!) aufgeführt. Zu den wichtigsten gehören die im folgenden Auszug angeführten Punkte:
„(1) Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen insbesondere für die Entwicklung, das Inverkehrbringen, die Inbetriebnahme und die Verwendung von Systemen künstlicher Intelligenz (KI-Systeme) in der Union im Einklang mit den Werten der Union festgelegt wird, um die Einführung von menschenzentrierter und vertrauenswürdiger künstlicher Intelligenz (KI) zu fördern und gleichzeitig ein hohes Schutzniveau in Bezug auf Gesundheit, Sicherheit und der in der Charta der Grundrechte der Europäischen Union („Charta“) verankerten Grundrechte, einschließlich Demokratie, Rechtsstaatlichkeit und Umweltschutz, sicherzustellen, den Schutz vor schädlichen Auswirkungen von KI-Systemen in der Union zu gewährleisten und gleichzeitig die Innovation zu unterstützen. Diese Verordnung gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.
…
(3) KI-Systeme können problemlos in verschiedenen Bereichen der Wirtschaft und Gesellschaft, auch grenzüberschreitend, eingesetzt werden und in der gesamten Union verkehren. […]
(4) KI bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft, Umwelt und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Tätigkeiten hinweg beitragen. Durch die Verbesserung der Vorhersage, die Optimierung der Abläufe, Ressourcenzuweisung und die Personalisierung digitaler Lösungen, die Einzelpersonen und Organisationen zur Verfügung stehen, kann die Verwendung von KI Unternehmen wesentliche Wettbewerbsvorteile verschaffen und zu guten Ergebnissen für Gesellschaft und Umwelt führen, beispielsweise in den Bereichen Gesundheitsversorgung, Landwirtschaft, Lebensmittelsicherheit, allgemeine und berufliche Bildung, Medien, Sport, Kultur, Infrastrukturmanagement, Energie, Verkehr und Logistik, öffentliche Dienstleistungen, Sicherheit, Justiz, Ressourcen- und Energieeffizienz, Umweltüberwachung, Bewahrung und Wiederherstellung der Biodiversität und der Ökosysteme sowie Klimaschutz und Anpassung an den Klimawandel.
(5) Gleichzeitig kann KI je nach den Umständen ihrer konkreten Anwendung und Nutzung sowie der technologischen Entwicklungsstufe Risiken mit sich bringen und öffentliche Interessen und grundlegende Rechte schädigen, die durch das Unionsrecht geschützt sind. Ein solcher Schaden kann materieller oder immaterieller Art sein, einschließlich physischer, psychischer, gesellschaftlicher oder wirtschaftlicher Schäden.
…
(8) Daher ist ein Rechtsrahmen der Union mit harmonisierten Vorschriften für KI erforderlich, um die Entwicklung, Verwendung und Verbreitung von KI im Binnenmarkt zu fördern und gleichzeitig ein hohes Schutzniveau in Bezug auf öffentliche Interessen wie etwa Gesundheit und Sicherheit und den Schutz der durch das Unionsrecht anerkannten und geschützten Grundrechte […] zu gewährleisten. […]
…
(179) Diese Verordnung sollte ab dem 2. August 2026 gelten. Angesichts des unannehmbaren Risikos, das mit der Nutzung von KI […] verbunden ist, sollten die Verbote sowie die allgemeinen Bestimmungen dieser Verordnung jedoch bereits ab dem 2. Februar 2025 gelten. […] Angesichts des raschen technologischen Fortschritts und der Einführung von KI-Modellen mit allgemeinem Verwendungszweck sollten die Pflichten der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck ab dem 2. August 2025 gelten. Die Verhaltenskodizes sollten bis zum 2. Mai 2025 vorliegen, damit die Anbieter die Einhaltung fristgerecht nachweisen können. […] Daher sollten die Bestimmungen über Sanktionen ab dem 2. August 2025 gelten.
Der folgenden eigentliche Verordnungstext ist inhaltlich in 13 Kapitel untergliedert und enthält zusätzlich 13 Anhänge mit tiefergehenden Informationen und Ausführungsbestimmungen.
In Kapitel 1 der KI-VO werden die Grundlagen geschaffen. Unter dem Titel „Allgemeine Bestimmungen“ wird zunächst der Zweck Verordnung erläutert (Art. 1: Gegenstand). Danach wird der Geltungsbereich räumlich und sachlich abgegrenzt und in Bezug auf juristische und natürliche Personen festgelegt (Art. 2: Anwendungsbereich). Es folgt eine Sammlung von 68 Definitionen, die den Gebrauch der in der Verordnung verwendeten Begriffe regelt (Art. 3: Begriffsbestimmungen). Zum Schluss wird die Qualifizierung des bei Anbietern und Betreibern von KI-Systemen eingesetzten Personals durch entsprechende Maßnahmen gefordert (Art. 4: KI-Kompetenz).
Die folgenden Kapitel gehen auf verbotene Praktiken (Kap. 2), Hochrisiko-KI-Systeme (Kap. 3), Transparenzpflichten (Kap. 4), KI-Modelle mit allgemeinem Verwendungszweck (Kap. 5), Maßnahmen zur Innovationsförderung (Kap. 6) sowie Governance (Kap. 7) und die EU-Datenbank für Hochrisiko-KI-Systeme (Kap. 8) ein. Hohe praktische Bedeutung für Anbieter und Betreiber von KI-Systemen haben die nächsten beiden Kapitel. Hier werden unter anderem die Beobachtung nach dem Inverkehrbringen und die Marktüberwachung geregelt (Kap. 9) sowie Verhaltenskodizes samt Leitlinien aufgestellt (Kap. 10). Nach dem Abschnitt über Befugnisübertragung und Ausschussverfahren (Kap. 11) folgt ein weiterer Teil mit hoher Relevanz für die Praxis: die Sanktionen (Kap.12). Wie bei jeder Verordnung folgen danach noch Schlussbestimmungen (Kap. 13) und Anhänge (Anhang 1 – 13).
Der Begriff „Künstliche Intelligenz“ (KI) wurde erstmals 1956 von John McCarthy verwendet, als er Fördergelder zur Finanzierung einer Konferenz beantragte:
„Das Seminar soll von der Annahme ausgehen, dass grundsätzlich alle Aspekte des Lernens und anderer Merkmale der Intelligenz so genau beschrieben werden können, dass eine Maschine zur Simulation dieser Vorgänge gebaut werden kann. Es soll versucht werden, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme von der Art, die zurzeit dem Menschen vorbehalten sind, zu lösen, und sich selbst weiter zu verbessern.
Die folgenden sind einige Aspekte des Künstliche-Intelligenz-Problems:
- Automatische Computer
- Wie muss ein Computer programmiert werden, um eine Sprache zu benutzen
- Neuronale Netzwerke
- Theoretische Überlegungen zum Umfang einer Rechenoperation
- Selbst-Verbesserung
- Abstraktionen
- Zufälligkeit und Kreativität“
(http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html)
Dieses unter dem Namen „Dartmouth Conference“ berühmt gewordene Seminar fand vom 19. Juni bis zum 16. August 1956 in Hanover, New Hampshire, statt. Neben McCarthy und den Co-Ausrichtern Marvin Minsky, Nathaniel Rochester und Claude Shannon nahmen sechs weitere Wissenschaftler zumindest zeitweise an der Veranstaltung teil, um Grundlagen, Ideen und Konzepte zur Schaffung intelligenter Maschinen zu diskutieren. Damit wurde der Grundstein für die Entwicklung der KI als eigenständiges Forschungsfeld gelegen.
Der Gedanke, dass eine Maschine zur Simulation menschlicher Leistungen wie Lernen und Intelligenz fähig sein könnte, war damals bereits nicht neu. Sieht man von philosophischen Betrachtungen, die schon in der Antike angestellt wurden, sowie Automaten, die intelligentes Verhalten vorgaukelten sollten, ab, geht der (technische) Ansatz auf den britischen Mathematiker Alan Turing zurück. Er entwickelte das Konzept der Turing-Maschine und stellte die Frage, ob Maschinen denken können. 1950 publizierte er eine Methode, mit der ein Gerät wie ein Computer als „intelligent“ eingestuft werden kann oder nicht. Bei diesem sogenannten Turing-Test kommuniziert ein Mensch über eine Text- oder Spracheingabe mit seinem (nicht sichtbaren) Gegenüber. Der Test gilt als bestanden, wenn der Mensch nicht bemerkt, dass sein Kommunikationspartner eine Maschine ist, er also nicht unterscheiden kann, ob es sich um einen Menschen oder eine Maschine handelt.
Nach der Dartmouth-Konferenz 1956 gab es noch viele weiter Meilensteine auf dem Weg zur künstlichen Intelligenz, unter anderem diese:
- 1960er-Jahre. Erste Programme entstanden, die einfache Probleme lösen konnten, etwa beim Schachspiel. 1966 entwickelte Joseph Weizenbaum ein Programm zur Verarbeitung natürlicher Sprache: ELIZA war in der Lage einfache Gespräche zu führen. Zudem wurde an Expertensystemen geforscht.
- 1970er-Jahre. Expertensysteme kamen auf und zeigten das Potenzial auf, das KI in spezifischen Anwendungsbereichen besitzt. Als Beispiel kann MYCIN angeführt werden, ein Programm, das medizinische Diagnosen stellen konnte.
- 1980er-Jahre. Expertensysteme verbreiteten sich als Anwendungen in der Industrie. Die KI erlebte einen Aufschwung durch das Aufgreifen von Techniken wie Backpropagation ─ Fehlerrückführung ─ bei der Entwicklung und dem Einsatz von neuronalen Netzen.
- 1990er-Jahre. Mit der enormen Steigerung der Rechenleistung und dem Einsatz potenter Algorithmen, auch genetischer Algorithmen, wurden KI-Systeme mit der menschlichen Intelligenzleistung konkurrenzfähig und übertrafen diese sogar in Teilbereichen. Einer der bedeutenden Erfolge der KI war der Sieg von IBMs Deep Blue über den Schachweltmeister Garry Kasparov 1997.
- 2000er-Jahre. Das maschinelle Lernen wird vorangetrieben, um große Datenmengen auswerten zu können. Diese entstehen nicht nur in Rechenzentren oder Datenbanken, sondern auch beim Einsatz der mittlerweile weit verbreiteten und per World Wide Web (WWW) vernetzten Personal Computer. Internet-Anwendungen und Social Media vervielfachen die Datenmenge. Die Auswertung dieser Big Data ist ein Treiber des maschinellen Lernens.
- 2010er-Jahre. KI-Systeme erweitern ihre Fähigkeiten rapide. 2011 gewinnt Watson von IBM in der Quizshow „Jeopardy!“ gegen menschliche Champions dank erheblicher Fortschritte bei der Verarbeitung natürlicher Sprache durch maschinelles Lernen. 2012 gibt es einen Durchbruch im Deep Learning: Geoffrey Hinton erzielt mit seinem Forschungsteam bei der Bildklassifikation durch den Einsatz von tiefen neuronalen Netzwerken auf dem ImageNet-Wettbewerb bahnbrechende Ergebnisse. 2016 entwickelt Googles DeepMind AlphaGo und gewinnt bei diesem komplexen Spiel gegen Go-Weltmeister Lee Sedol. 2017 wurde von Google die Transformer-Architektur für neuronale Netze vorgestellt, die das Natural Language Processing (NLP) revolutioniert hat und Basis von Software wie beispielsweise ChatGTP ist.
- 2020er-Jahre. Anwendungen in der Bild- und Spracherkennung werden allgemein zugänglich. Sprachassistenten und Chatbots sind ebenso im täglichen Leben – ob privat oder beruflich – verankert. Anbieter setzen zum Beispiel auf personalisierte Empfehlungen und auf persönliche Vorlieben abgestimmte Werbeinhalte, die uns auf den Displays von Smartphones, Tablets und Laptops oder auf den Bildschirmen von PCs erreichen. Generative Modelle stehen allen – in den Grundversionen oftmals kostenfrei – zur Verfügung und erlauben die Verarbeitung natürlicher Sprache sowie die Erstellung von Texten oder die Generierung von Bildern, Audios und Videos oder Webinhalten. Die KI verarbeitet dabei ihre Datengrundlage unter anderem auch mittels Sprachanweisungen, also sprachgesteuert. Das autonome Fahren als Paradedisziplin der künstlichen Intelligenz befindet sich bereits in der Erprobungsphase. Donald Trump kündigte nach seiner Amtseinführung als 47. Präsident der USA im Januar 2025 an, das Projekt „Stargate“ zu unterstützen, in das in den folgenden vier Jahren 500 Mrd. US-Dollar investiert werden sollen. Dieses Vorhaben umfasst den Bau von mehr als 20 Hochleistungs-Rechenzentren für KI in verschiedenen Bundesstaten und soll allein in Texas 100.000 neue Arbeitsplätze schaffen. Beteiligt sind unter anderem US-Tech-Unternehmen wie Oracle, Microsoft, OpenAI und der japanischen Technologie-Konzern SoftBank. Ein bestehendes Dekret seines Amtsvorgängers Joe Biden zur Regelung der Anwendung von KI hatte Trump zuvor abgeschafft. (https://www.tagesschau.de/wirtschaft/stargate-ki-trump-100.html) Die EU zog im Februar mit ihrer Ankündigung auf dem AI-Action-Gipfel in Paris nach, ein 200 Mrd. Euro-Programm zur Weiterentwicklung und zum Einsatz von KI aufzulegen, „InvestAI“ genannt. Die EU selbst will sich daran mit einem neuen europäischen Fonds in Höhe von 20 Milliarden Euro beteiligen, über den der Bau von vier KI-Großrechenzentren finanziert werden soll. Und bereits Ende Januar erschütterte der Markteintritt der preisgünstigen chinesischen Software „Deep Seek“ die Welt der künstlichen Intelligenz – und die Börse. Nachgesagt wird ihr, dass sie bei im Vergleich zu ChatGTP viel geringeren Entwicklungskosten mindestens ebenso leistungsfähig und dabei noch ressourcenschonend sei. Begründet wird dies mit der Struktur von „Deep Seek“: Sie ist modular aufgebaut und besteht damit quasi aus mehreren KIs, die jeweils fragespezifisch nur bestimmte Bereiche der Datengrundlage durchsuchen und verarbeiten. Da damit sozusagen Expertensysteme zusammengeschaltet werden und auf jeweils nur eines davon zurückgegriffen wird, ist der Energieverbrauch bedeutend niedriger als bei Konkurrenzprodukten. Allerdings bestehen massive Sicherheitsbedenken, nicht nur bei deutschen Datenschutzbehörden. Zudem steht der Vorwurf der Zensur und der Spionage im Raum.
Die künstliche Intelligenz entwickelt sich hoch dynamisch, erreicht immer höhere Qualität bei den Ergebnissen und erschließt immer neue Anwendungsbereiche. Per Turing-Test sind einige Resultate der KI schon kaum noch von menschlichen Aktivitäten zu unterscheiden. Da KI als Prozess weiterhin neue Technologien und Anwendungen hervorbringt, bleibt die weitere Entwicklung spannend.
Teilbereiche der künstlichen Intelligenz
Künstliche Intelligenz wird in den unterschiedlichsten Lebens- und Arbeitsbereichen und damit in den verschiedensten Branchen eingesetzt. Die Spanne reicht von der Automobilindustrie bis zur Unterhaltungsbranche, im Finanz- und im Gesundheitswesen wird sie ebenso genutzt wie in Handel und Logistik oder in der Land- und Forstwirtschaft. Sie hat das Potenzial, Menschen zu entlasten, Prozesse und Abläufe zu optimieren, die Effizienz zu steigern und neue technologische Möglichkeiten zu eröffnen.
Je nach Anwendungsbereich muss die künstliche Intelligenz dabei unterschiedliche Aspekte abdecken und spezielle Fähigkeiten entwickeln. Daraus ergeben sich die einzelnen Forschungsfelder, in denen nicht nur Grundlagen erarbeitet werden, sondern auch die KI weiter optimiert und an die Aufgaben angepasst wird. Die jeweiligen Ansätze können den folgenden Teilbereichen zugeordnet werden:
- maschinelles Lernen (ML);
- neuronale Netze;
- natürliche Sprachverarbeitung (NLP);
- Computer Vision (CV);
- Robotik;
- Expertensysteme;
- Fuzzy Logic.
Ergebnisse aus der Forschung und Entwicklung in diesen Teilbereichen werden in der Regel kombiniert. So ergeben sich komplexe KI-Systeme, die in der Lage sind, eine Vielzahl von Aufgaben zu bewältigen.
Maschinelles Lernen (ML)
Maschinelles Lernen ermöglicht es Computern, quasi selbstständig, also ohne explizit darauf ausgerichtete Programmierung, Daten zu analysieren und zu bewerten. So wird es möglich, darin vorhandene Muster, Auffälligkeiten oder sich entwickelnde Abweichungen zu erkennen. Die verwendeten Algorithmen werden mithilfe großer Datenmengen trainiert, um Trends zu identifizieren, Prognosen zu erstellen und Entscheidungen vorzubereiten oder selbst zu treffen (Autonomie).
Beim maschinellen Lernen werden in der Regel drei Ansätze unterschieden: das überwachte Lernen, das unüberwachte Lernen und das bestärkende Lernen. Alle drei Vorgehensweisen zielen darauf ab, die Leistung von Modellen zu verbessern, indem sie aus Erfahrungen lernen (Lernfähigkeit) und sich an neue Informationen anpassen (Adaptivität).
Überwachtes Lernen
Das KI-Modell wird mit einem Datensatz trainiert, der Eingabedaten (Features) und darauf abgestimmte Ausgabewerte (Labels) enthält („beschriftete Daten“). Auf diese Weise soll die KI eine Funktion erlernen und ausführen, die die Eingaben den entsprechenden Ausgaben zuordnet. Diese Art des überwachten Lernens wird angewendet bei Klassifikationsaufgaben wie etwa der Spam-Erkennung in E-Mails sowie Regressionsaufgaben wie beispielsweise der Vorhersage von Immobilienpreisen.
Unüberwachtes Lernen
Beim unüberwachten oder nicht überwachten Lernen wird das KI-Modell mit Daten ohne weitere Informationsinhalte und Angaben trainiert („unbeschriftete Daten“). Die KI soll selbstständig Muster oder Strukturen in den Daten erkennen, ohne eine klare Zielvorgabe. Eine solche KI kann beispielsweise Clusteranalysen durchführen, etwa zur Differenzierung von Kundengruppierung. Ebenso kann sie eingesetzt werden, um Haupt- und Nebenkomponenten zu identifizieren, zum Beispiel bei einer ABC-Analyse. Dies trägt, als Dimensionsreduktion, zur Verringerung der Komplexität eines Angebotsspektrums oder der Lagerhaltung bei.
Bestärkendes Lernen – Reinforcement Learning (RL)
Das KI-Modell lernt – wie ein Mensch – durch Belohnung und Bestrafung. Ein Agent oder Avatar agiert dabei in einer künstlich geschaffenen Umgebung. Für die von ihm ausgeführten Handlungen erhält er ein positives oder negatives Feedback. Das Ziel ist, eine Strategie, also ein Verhalten zu entwickeln, um die Belohnung in einem gegebenen Zeitraum zu maximieren und Strafen weitestgehend zu vermeiden. Bestärkendes Lernen wird häufig in Bereichen wie Robotik und autonome Systeme, aber auch im Gaming – in der Spieleindustrie – eingesetzt.
Neuronale Netze
Neuronale Netze ähneln in ihrem Aufbau der Struktur des (menschlichen) Gehirns und imitieren dessen Funktionsweise: Sie bestehen aus Schichten von künstlichen Neuronen als Knoten („Netzknoten“), die untereinander verbunden sind und durch Transformation und Weitergabe von Eingangssignalen zu einem Ergebnis kommen – und auf diese Weise Informationen verarbeiten und lernen können.
Die Knoten gehen oft auf das von den US-amerikanischen Forschern Warren McCulloch und Walter Pitts im Jahr 1943 vorgeschlagene Neuronenmodell zurück, das unter dem Namen McCulloch-Pitts-Neuron bekannt wurde. Mit diesem elektronischen Bauteil lassen sich sehr effiziente elektrische Schaltungen als Schwellenwertelemente realisieren, die eingehende Signale aufsummieren und je nach erreichtem Wert weitergeben oder nicht.
In der Regel besteht ein künstliches neuronales Netz aus mehr als einem Neuron und mindestens drei Schichten von Knoten. Die Anzahl der Schichten und Neuronen kann variieren; daraus ergeben sich unterschiedliche Architekturen, die für spezielle Aufgaben geeignet sind. Die Schichten werden unterteilt in die Eingabeschicht, eine verborgene oder verdeckte Schicht als Blackbox und die Ausgabeschicht:
- Die Neuronen der Eingabeschicht nehmen Informationen aus der Außenwelt auf, transformieren sie und geben sie gewichtet an die erste verborgene Schicht weiter.
- Die verborgene Schicht kann im Gegensatz zu der Ein- und der Ausgabeschicht aus beliebig vielen Ebenen von Neuronen bestehen. Hier werden die von der Eingangsschicht weitergegebenen Informationen von Ebene zu Ebene weiterverarbeitet und immer wieder neu gewichtet. Sind sehr viele Ebenen am Transformationsprozess beteiligt, wird der Begriff Deep Learning verwendet. Da die Kriterien zur Gewichtung und Verarbeitung der Informationen nicht offensichtlich sind, gilt die verborgene Schicht als Black Box.
- In der Ausgabeschicht laufen die von den Neuronen verarbeiteten Informationen zusammen und werden als Ergebnis zusammengefasst – beispielsweise als Wahrscheinlichkeitsverteilung. Die errechneten Wahrscheinlichkeiten können anschließend als Grundlage für Entscheidungen genutzt werden, um daraus Handlungen abzuleiten.
Typen von neuronalen Netzen: die Architektur
Form follows function: Die Struktur der künstlichen neuronalen Netze, also ihre Architektur, hängt von der Aufgabe ab, die sie ausführen sollen – und natürlich von dem jeweiligen Forschungs- und Entwicklungsstand. Die geschichtliche und technische Entwicklung hat zu verschiedenen Haupttypen geführt, die sich für bestimmte Anwendungsbereiche besonders gut eignen.
- Das Perceptron ist in seiner Grundversion ein einzelner, isolierter Knoten. Als älteste und einfachste Form eines neuronalen Netzes ist das Perceptron in der Lage, eine Information zu erfassen – zu perzipieren –, zu bewerten und weiterzuleiten. Es entspricht damit einem McCulloch-Pitts-Neuron.
- Feedforward-Netze gelten als einfache Form eines neuronalen Netzes. Es sind Einbahnstraßen für Informationen, da diese nur von der Eingabeschicht über die verborgenen Schichten bis zur Ausgabeschicht weitergegeben werden. Eingesetzt werden sie unter anderem bei simplen Aufgaben wie der Bilderkennung.
- Rekurrente neuronale Netze (RNNs) enthalten eine zeitliche Komponente. Sie sind in der Lage, auf frühere Informationen zurückzugreifen, besitzen also eine Art Erinnerungsvermögen. In ihrer Architektur ist dies in Form von Schleifen und rekursiven Prozessen verankert. Ihr Einsatzgebiet ist die Sprachanwendung, auch bei Übersetzungen. Sie sind aber auch für Vorhersagen gut geeignet.
- Konvolutionale neuronale Netze (CNNs) sind ein Konvolut aus Neuronen, also knäuel- oder bündelartig strukturiert. Mit dieser Architektur sind sie in der Lage, räumliche Hierarchien in Daten zu erkennen und zu verarbeiten. Dazu analysieren sie visuelle Daten mithilfe von Filtern besonders kleinteilig, um Muster wie Kanten, Formen oder Farben zu erkennen. CNNs werden oft in den Bereichen Bildverarbeitung und Gesichtserkennung eingesetzt.
- Generative Adversarial Networks (GANs) bestehen aus zwei Netzen, die im Gegensinn zusammenarbeiten. Das erste Netz ist ein Generator, der Daten erzeugt. Diese werden anschließend von dem zweiten Netz, einem Diskriminator, bewertet. GANs werden als generative KI kreativ und können Bilder, Texte und Musik hervorbringen.
- Transformer-Netze gehen auf eine von Google 2017 entwickelte Deep-Learning-Architektur zurück. Sie gelten als Weiterentwicklung der RNNs und der GANs, da sie eine dem Generator und Diskriminator verwandte Struktur, einen Encoder und einen Decoder enthalten. Da sowohl die Stellung von Ausdrücken in Sätzen als auch deren Zusammenhang im Kontext erkannt und verarbeitet werden, ist diese Architektur besonders effizient in der Verarbeitung von Texten und Sprache, was an KI-Systemen wie ChatGPT deutlich wird.
Weitere Merkmale von künstlichen neuronalen Netzen
Neben der Struktur, also der Architektur des Netzwerks, sind diese Merkmale typisch für künstliche neuronale Netze:
- Verbindungen: Die Neuronen eines künstlichen neuronalen Netzes sind mit den anderen Neuronen des Netzes bzw. den Neuronen der nächsten Schicht über gewichtete Verbindungen miteinander verknüpft. Diese Gewichte sind dafür ausschlaggebend, wie stark das Signal eines sendenden Neurons das empfangende Neuron beeinflusst. Das Netzwerk wird trainiert, indem die Gewichte angepasst werden, um die Leistung des Modells zu optimieren.
- Aktivierungsfunktionen: Aktivierungsfunktionen beeinflussen Neuronen bei der Entscheidung, ein von ihnen verarbeitetes Signal an Neuronen der nächsten Schicht weiterzuleiten. Mithilfe dieser Funktionen können nichtlineare Beziehungen in den Daten modelliert werden.
- Training: Neuronale Netze werden durch einen Feedback-Prozess trainiert, bei dem die Abweichungen zwischen den Vorhersagen des Modells und den tatsächlichen Werten minimiert werden. Dieser Prozess der Fehlerrückführung, Backpropagation genannt, erfolgt durch Anpassung der Gewichte in den Verbindungen.
Neuronale Netze sind damit besonders leistungsfähig bei Aufgaben wie Bild- und Spracherkennung, maschinellem Übersetzen und anderen Anwendungen, bei denen komplexe Muster in großen Datenmengen erkannt werden müssen.
Natürliche Sprachverarbeitung (NLP)
Die natürliche Sprachverarbeitung (Natural Language Processing, NLP) ermöglicht es Maschinen, menschliche Sprache zu verstehen, zu interpretieren und darauf zu reagieren – auch mit eigenen sprachlichen Formulierungen, also beispielsweise Antworten. NLP ist die Grundlage von Anwendungen wie Sprachassistenten, Chatbots oder auch Übersetzungsdiensten.
Zurückgegriffen wird dabei auf Methoden, Modelle und Anwendungen aus der Linguistik. Texte in gesprochener und geschriebener Sprache werden per Deep Learning in neuronalen Netzen analysiert, ihre Bestandteile formal und inhaltlich bewertet. Die Ausgabe kann in Form sowohl eines Textes als auch einer Sprachmitteilung erfolgen. Die Stimme wird dabei synthetisch erzeugt und in einem Sprach-Synthesizer mit Sprachmelodie und Betonung versehen. Anhand entsprechender Übungsdaten lassen sich so auch Stimmen von Persönlichkeiten des öffentlichen Lebens nachahmen.
Erforscht, weiterentwickelt und angewendet wird NLP unter anderem in diesen Gebieten:
- Spracherkennung: Gesprochene Sprache wird erkannt und digital verarbeitet, um Befehle, Anweisungen oder Fragen zu verstehen. Als Ergebnis einer Suchanfrage wird beispielweise eine gewichtete Trefferliste angezeigt. Per Textgenerierung, Übersetzung oder Sprachsynthesizer sind auch Ausgaben in verschriftlichter oder wiederum in sprachlicher Form möglich. Sprachassistenten und Chatbots bauen auf diesem Funktionsprinzip auf.
- Textanalyse: Textdaten werden verarbeitet und ausgewertet, um daraus Informationen zu gewinnen, darin behandelte Themen zu identifizieren oder auch anhand von Randbemerkungen und Kommentaren Stimmungen zu erkennen. Die Ergebnisse können etwa bei der Themensetzung und -ausarbeitung oder bei einer Sentiment-Analyse (Stimmungsanalyse) verwendet werden.
- maschinelles Übersetzen: Sind die Begriffe, die grammatischen Regeln sowie die Sprachmuster, Laute und Betonungen von mehreren Sprachen bekannt, können Texte oder sprachliche Äußerungen von einer Sprache in eine andere übersetzt werden. Google bietet diesen Dienst mit dem Tool Translate an. Im Januar 2025 hat Meta das KI-System SEAMLESSM4T (Massively Multilingual and Multimodal Machine Translation) vorgestellt, das nicht nur Sprache in Text, Text in Sprache und Text in Text, sondern auch Gesprochenes aus mehr als 100 Ausgangssprachen fast simultan in 36 verschiedene Sprachen übersetzen kann. (https://www.spektrum.de/news/ki-gelingt-simultane-uebersetzung-von-mehr-als-100-sprachen/2249987?utm_source=firefox-newtab-de-de)
- Textgenerierung: NLP-Systeme können auch kreativ werden, indem sie neuen Text erstellen, in der Regel als Antwort auf eine Frage oder Suchanfrage. Basis für den neuen Text sind bestimmte Eingaben, Trainingsdaten oder vorgegebene Muster. Diese generative KI wird in Anwendungen wie automatisierten Schreibassistenten, aber auch, mit Unterstützung eines Sprachsynthesizers, in Chatbots genutzt. KI-Systeme wie ChatGPT von OpenAI oder LLaMA von Meta sind ohne diese Möglichkeit der Textgenerierung nicht zu realisieren.
- Frage-Antwort-Systeme: Diese Systeme sind quasi eine Synthese aus allen vier vorher genannten Punkten: Sie müssen geschriebene und gesprochene Sprache erkennen, analysieren und gegebenenfalls auch übersetzen, um als Antwort neue Texte zu liefern oder sich sprachlich zu artikulieren. Diese Systeme, rufen relevante Informationen aus einer Datenbank oder dem Internet ab, um auf Fragen zu antworten. Weit verbreitet sind diese Anwendungen in Chatbots.
Computer Vision (CV)
Kernthema der Computer Vision, der „maschinengemachten Erscheinung“, ist die automatische Be- und Verarbeitung sowie Erstellung von Bildern und Videos. Durch die Analyse von Bildmaterial soll erreicht werden, dem KI-System visuelle Informationen zugänglich zu machen, um diese ähnlich dem Menschen zu interpretieren und zu verstehen. Zentrale Aufgaben sind dabei die Mustererkennung, die Bildklassifizierung sowie die Analyse von Bewegungen.
Als mittlerweile klassische Anwendungen können die Nutzung in Überwachungskameras (Objekt- und Gesichtserkennung) und elektronischen Zugangssystemen (biometrische Daten) sowie die Auswertung etwa von Röntgenbildern oder Computertomografie-Daten in der medizinischer Bildanalyse gelten. Die Kombination aus Objekterkennung und Bewegungsanalyse ist zentral für die Entwicklung und den Einsatz autonomer Fahrzeuge. Als generative KI ist sie Grundlage für Anwendungen im Bereich Augmented Reality (AR) und Virtual Reality (VR), die auch in der Industrie, etwa bei der Wartung und Instandhaltung von Maschinen, oder zu Schulungszwecken eingesetzt werden. In der Filmindustrie und der Gaming-Branche hat CV die Möglichkeiten, Inhalte zu erstellen, zu erleben und sogar aktiv am Geschehen teilzunehmen, revolutioniert, da sogar individuelle menschliche Bewegungen, Gestik und Mimik in die Filmszenerie oder in die virtuelle Welt übertragen werden können.
Zu den wichtigsten Anwendungen der Computer Vision gehören:
- Objekterkennung: Die Erkennung und Identifizierung von Objekten ist eine bereits klassische Anwendung in der Verkehrsüberwachung oder beim Objektschutz. Inzwischen wird dieser Bereich der Computer Vision auch in der Gaming-Branche eingesetzt, um Objekte in der Spielumgebung zu erkennen und darauf zu reagieren. Dies ist unabdingbar bei der Dynamisierung des Gamings, um Interaktionen zu ermöglichen.
- Gesichtserkennung: Klassischerweise erfolgt die Gesichtserkennung als Zugangskontrolle zu nichtöffentlichen oder gefährdeten Bereichen – etwa an Schleusen zu sicherheitsrelevanten Systemen oder im Eingangsbereich eines Finanzinstituts. Im öffentlichen Bereich können Plätze oder Bahnhöfe auf diese Weise überwacht werden – aber auch Ampelkreuzungen, um Fußgänger sanktionieren zu können, die gegen Verkehrsregeln verstoßen haben – siehe Beispiel China. In der Film- und Gaming-Branche wird Gesichtserkennung eingesetzt, um das Aussehen oder die Mimik einer Person auf andere Darsteller oder Gegenstände zu übertragen oder um Avatare als Charaktere zu personalisieren. Menschliche Gesichtszüge werden außerdem genutzt, um computergenerierte Wesen eine Identität zu geben und die Interaktion zwischen Spielern und Charakteren zu verbessern.
- Visuelle Effekte (VFX): Mithilfe der Computer Vision lassen sich realistische visuelle Effekte erzeugen, indem digitale Elemente – Objekte oder Charaktere – in per Kamera aufgenommene Spielszenen integriert werden. Hier werden Techniken wie Motion Capture als Tracking-Verfahren zur Erfassung und Aufzeichnung von Bewegungen oder auch Tools zur Bildstabilisierung eingesetzt.
- Animation: Per Gesichtserkennung und Bewegungsanalyse werden individuelle Gesichtsausdrücke und Bewegungsabläufe von Darstellern erfasst und auf digitale Charaktere übertragen. Damit werden Animationen lebendiger und realistischer.
- Augmented Reality (AR): Unter Augmented Reality, erweiterter Realität, versteht man die computergestützte Ergänzung und Vergrößerung des realen Wahrnehmungsraums. Mithilfe einer AR-Brille lassen sich beispielsweise Daten im normalen Gesichtsfeld einer Person anzeigen. Ein Servicetechniker kann so bei der Wartung einer Anlage beim Kunden Parameter für die Einstellung eines Bauteils angezeigt bekommen, während er die Arbeiten vornimmt. Auch in der Gaming-Branche werden digitale Inhalte in die reale Welt integriert. Dies ermöglicht interaktive Spiele, bei denen der Standort des Spielers einbezogen wird. Ein Beispiel dafür ist Pokémon GO, das auf dem Smartphone gespielt wird. Hier wird auf dem Display die per Kamera erfasste reale Umgebung angezeigt. In diese werden dann die animierten Pokémon-Charaktere eingeblendet, auf die man als Spieler reagieren muss.
- Virtuelle Realität (VR): Als virtuelle Realität wird eine computergenerierte, also künstlich erzeugte digitale Welt bezeichnet. Diese Welt kann in der Filmbrache dazu genutzt werden, bekannte, anscheinend reale Umgebungen abzubilden und mit neuen Effekten, Objekten oder Charakteren auszustatten, aber auch völlig neue Welten und Lebewesen – wie Avatare – zu erschaffen. In der Gaming-Branche wird das Spektrum der Möglichkeiten durch Interaktionen erweitert. Dazu zählen eigene Handlungen und Aktionen, die sowohl von den Mitspielern als auch von vom Computer erzeugten Charakteren beeinflusst werden. Wird eine VR-Brille eingesetzt, kann die physische Realität vollkommen ausgeblendet werden. Dieser Effekt wird unter anderem bei virtuellen Besichtigungen oder zum situativen Training von Verhaltensweisen genutzt.
- automatisierte Kameraführung: Die Erkennung von Objekten und die Auswertung von Bewegungsdaten kann dazu genutzt werden, Kameras in Filmproduktionen automatisch zu steuern. Dies ermöglicht komplexe Kamerafahrten und -einstellungen, die zudem noch reproduzierbar durchgeführt werden können.
- Spieler-Interaktion: Objekterkennung und Bewegungsanalyse ist auch Grundlage für die Interaktivität beim Gaming. Die Kamera am eigenen Bildschirm kann die Bewegungen und Gesten der Spieler erkennen und interpretieren. Dies ermöglicht immersive und intuitive Spielerlebnisse – die Spieler werden einbezogen und können auf die jeweils anderen reagieren.
Mithilfe der Computer Vision verwischen die Grenzen zwischen Wahrheit und Täuschung, die Übergänge zwischen Realität und virtueller Welt verschwimmen. Bearbeitete oder neu generierte Bilder und Videos sind von realen Aufnahmen kaum noch zu unterscheiden – ausschlaggebend ist, wie das so erstellte Material genutzt wird und ob offen kommuniziert wird, dass es sich um Kreationen einer Maschine handelt. Auch die Erkennung von Objekten und Gesichtern kann der Sicherheit dienen oder die totale Überwachung vorantreiben. Hier ist es wichtig, die ethischen Prinzipien nicht zu verletzen – die beispielsweise in der Verordnung zur künstlichen Intelligenz angeführt werden.
Robotik
Gegenstand der Robotik ist der Entwurf, die Gestaltung, die Steuerung, die Herstellung und der Einsatz von teilweise oder vollständig autonom handelnden Maschinen. Unterschieden werden kann zwischen physisch existenten Robotern, sogenannten Hardwarerobotern mit Hard- und Software, und reinen Softwarerobotern, Bots.
Hardwareroboter werden in vielen Branchen der Wirtschaft, aber mittlerweile auch im privaten Umfeld eingesetzt. In der Industrie sind sie in der Regel in der Fertigung zu finden, beispielsweise als Schweißroboter, aber auch als autonome Fahrzeuge für den innerbetrieblichen Transport. In der Gastronomie und in der Pflegebranche dienen sie als Serviceroboter; hier werden sie oft humanoid gestaltet, also dem menschlichen Ebenbild angepasst, um eine höhere Akzeptanz bei den bedienten Personen zu erhalten. Bei diesen anthropomorphen Maschinen wird künstliche Intelligenz unter anderem dazu genutzt, Mimik und Gestik darzustellen und natürlichsprachliche Fähigkeiten zu entwickeln. Im Privatleben übernehmen Haushaltsroboter bereits großflächig Arbeiten wie das Staubsaugen oder das Rasenmähen.
KI ermöglicht es Robotern, Aufgaben autonom auszuführen, Entscheidungen zu treffen und sich an ihre Umgebung anzupassen. Durch maschinelles Lernen können Roboter aus Erfahrungen lernen und ihre Leistung kontinuierlich verbessern. Zum Beispiel können Staubsauger-Roboter mithilfe von KI ihre Umgebung erkennen, Hindernisse vermeiden und den besten Reinigungsweg planen. KI hilft Robotern, komplexe Probleme zu lösen, menschliche Interaktionen zu verstehen und sogar in unvorhersehbaren Situationen zu agieren.
Ohne den Einsatz der künstlichen Intelligenz wäre die Robotik noch nicht so weit fortgeschritten, denn die KI schafft erst durch die folgenden Fähigkeiten die Grundlagen für eine Interaktion der Maschine mit der Umgebung:
- autonome Navigation: Roboter können ihre Umgebung erkennen und sich autonom darin bewegen. Dies wird möglich durch den Einsatz von Sensoren und Aktoren als Sinnes- und Ausführungsorgane. Die KI liefert die Möglichkeiten zur Bildverarbeitung und zur Bewegungsanalyse. So können Roboter Hindernisse identifizieren und sicher navigieren.
- maschinelles Lernen: Roboter sind dank KI in der Lage, aus Erfahrungen zu lernen und ihre Leistung mit der Zeit verbessern. Dank dieser Adaptivität können sie auch in dynamischen Umgebungen agieren, in denen sich Bedingungen schnell ändern.
- Objekterkennung und -verarbeitung: KI-basierte Roboter können Objekte erkennen, klassifizieren und sogar manipulieren. Erst damit werden viele Anwendungen möglich. In der Fertigung beziehen sich die Fähigkeiten zum Beispiel auf die Auswahl, das Ergreifen und die Positionierung von (Klein-)Teilen. In der Logistik wird unter anderem das Erkennen, Greifen und Transportieren von Waren oder Packstücken verlangt – und das Berechnen der kürzesten Wege zwischen den einzelnen Stationen (Travelling-Salesman-Problem).
- interaktive Systeme: Roboter, insbesondere Serviceroboter in der Gastronomie, der Pflege oder im Gesundheitswesen, sollen mit Menschen interagieren. Die KI liefert die dazu notwendige Sprachsteuerung und ermöglicht bei humanoiden Robotern auch Gestik und Mimik oder andere Formen der Kommunikation. Dies verbessert die Benutzerfreundlichkeit und erhöht die Akzeptanz dieser maschinellen Anwendungen.
- prädiktive Analysen: KI-gesteuerte Roboter können große Mengen von Daten analysieren und daraus Vorhersagen ableiten. Im einfachsten Fall sind sie dadurch in der Lage, Selbsttests durchzuführen und Wartungsbedarfe vorherzusagen. Bei komplexerer Datenlage, etwa auf Basis von Objekterkennung und Bewegungsanalyse, schaffen es diese Maschinen, proaktiv auf Veränderungen in ihrer Umgebung zu reagieren. Dies ist unter anderem entscheidend bei autonomen Fahrzeugen.
Insgesamt trägt KI dazu bei, die Effizienz, Flexibilität und Intelligenz von Robotern zu steigern. Die Einsatzmöglichkeiten werden dadurch erheblich erweitert – vom Privatleben über die verschiedenen Wirtschaftsbereiche bis hin zu Schutz- und Rettungsdiensten – und nicht zuletzt auch militärischen Operationen.
Expertensysteme
Expertensysteme gehörten bereits zu den ersten Anwendungen der künstlichen Intelligenz und haben nichts an Bedeutung eingebüßt. Sie sind darauf ausgelegt, menschliche Experten in bestimmten Bereichen zu unterstützen oder auch zu imitieren. Dazu verwenden sie Wissen aus bestimmten Disziplinen und Regeln, die in diesen Fachbereichen gelten, um eine Entscheidungsfindung vorzubereiten, selbst Entscheidungen zu treffen oder Vorschläge und Lösungen zu erarbeiten.
Zu den grundlegenden Elementen von KI in Expertensystemen gehören folgende Funktionen:
- Wissensbasis: Experten benötigen Fachwissen – das gilt auch für Expertensysteme. Die Wissensbasis sollte fachspezifisch und möglichst umfangreich sein. Zu den Inhalten gehören Daten und Fakten, (Verarbeitungs-)Regeln und Erfahrungen. Dieses Wissen liegt oft in Datenbanken von Bibliotheken, Forschungseinrichtungen und Patentämtern vor. Es wird in der Regel von menschlichen Experten gesammelt und strukturiert, um es für das System nutzbar zu machen.
- Inferenzmaschine: Die Inferenzmaschine, auch Regelinterpreter oder Schlussfolgerungsmaschine genannt, ist die zentrale Softwarekomponente eines Expertensystems. Sie wendet logische Regeln an, um aus einer Wissensdatenbank neue Aussagen und Regeln abzuleiten und Schlussfolgerungen aus der Wissensbasis zu ziehen. Techniken wie die Vorwärts- und Rückwärtsverknüpfung dienen ihr dazu, Zusammenhänge zu erschließen, neue Erkenntnisse zu gewinnen oder Probleme zu lösen.
- Benutzerschnittstelle: Die Benutzerschnittstelle, auch Mensch-Maschine-Schnittstelle oder Human Machine Interface (HMI) genannt, ist der Kontaktbereich zwischen dem Benutzer und dem KI-System. Hier können Fragen gestellt oder Informationen eingegeben werden – je nach verwendeter KI in schriftlicher oder sprachlicher Form, per Maus, Display oder Mikrofon. Die Benutzeroberfläche sollte intuitiv und benutzerfreundlich gestaltet werden, um den Zugang zu den Funktionen des Systems zu erleichtern. Die Ausgabe kann dann ebenfalls schriftlich – als Ausdruck, Datei oder per Display – oder sprachlich erfolgen.
- Erklärungskomponente: Viele maschinell erstellte Antworten oder Lösungsvorschläge sind ohne weitere Erläuterung unverständlich. Die Erklärungskomponente des Expertensystems ermöglicht es, die Gründe für bestimmte Entscheidungen oder Empfehlungen nachzuvollziehen. Da Benutzer so die Logik hinter den Schlussfolgerungen erkennen und diese verstehen können, wächst das Vertrauen in das System.
- Lernfähigkeit: Moderne Expertensysteme integrieren das maschinelle Lernen in ihre Entscheidungsfindung, um sich adaptiv an neue Herausforderungen anpassen zu können. Das maschinelle Lernen dient dazu, die Wissensbasis quantitativ und qualitativ auszubauen, also kontinuierlich zu erweitern und zu verbessern. Damit wird es den Expertensystemen möglich, aus neuen Daten und Erfahrungen zu lernen. Die Genauigkeit und die Relevanz der Antworten oder angebotenen Lösungen wird so mit der Zeit erhöht.
Mit diesen Funktionen ausgestattete Expertensysteme können komplexe Probleme in spezifischen Fachgebieten analysieren und fundierte Entscheidungen treffen. Damit unterstützen sie menschliche Experten und ersetzen sie unter Umständen sogar.
Fuzzy Logic
Der Begriff „Fuzzy Logic“ geht auf den Mathematiker Lotfi A. Zadeh von der Universität von Kalifornien in Berkeley zurück, der im Jahr 1973 die „Unschärfelogik“ als Forschungsgebiet begründete. Fuzzy Logic dient der Verarbeitung von unscharfen Angaben (wie „größer/kleiner, schneller/langsamer als“) oder ungenauen Informationen („15 bis 20 Personen“) und ermöglicht dadurch die Entscheidungsfindung in Situationen, bei denen die Datenlage unzureichend ist. Dieser Ansatz zur Verarbeitung von Daten beruht auf Wahrheitsgraden (Werten zwischen 1 = wahr und 0 = falsch) und nicht auf der booleschen Logik (1 oder 0), mit der Computer üblicherweise arbeiten.
Nachgeahmt wird damit die menschliche Fähigkeit, auch bei Vorliegen unvollständiger oder teilweise widersprüchlicher Informationen Entscheidungen zu fällen. Die unscharfen Begriffe, die wir im Alltag benutzen, und unsere Erfahrungswerte befähigen uns zu solchen Leistungen. Fuzzy Logic dient der Beschreibung und Kategorisierung der Inhalte, setzt sie mathematisch um und ermöglicht so deren computergestützte Be- und Verarbeitung.
Fuzzy Logic ist ein wichtiges Element der künstlichen Intelligenz, da auch die KI nicht immer auf vollständige Datensätze und komplette Informationen über die Umwelt, in der sich das System befindet, zurückgreifen kann. Gerade bei autonomen Systemen wie Servicerobotern oder Fahrzeugen liefern die Sensoren teils kein umfassendes Bild der Umgebung oder nur interpretationsfähige Daten. Unvorhergesehene Situationen oder externe Einflüsse lassen sich aber mithilfe der Fuzzy Logic bewältigen.
Beschreiben lässt sich das Prinzip der Fuzzy Logic anhand der beiden Elemente Unsicherheit bzw. Unschärfe und Wissensrepräsentation:
- Unsicherheit und Unschärfe: Fuzzy Logic wurde entwickelt, um in der Physik sowie in der Mess- und Regeltechnik mit Wertebereichen, nicht gesicherten Angaben sowie unpräzisen Informationen oder Annahmen umzugehen. Grundlage dafür ist, dass Aussagen entsprechende Wahrscheinlichkeiten zugeordnet werden. Diese können alle Werte zwischen den Extremen 1 (wahr) und 0 (falsch) annehmen. Dadurch wird eine individuell abgestufte, auch relative Bewertung von Daten und Zuständen möglich. Dies ist besonders nützlich bei der Beurteilung von realen Situationen, in denen Informationen oft unzureichend oder vage sind.
- Wissensrepräsentation: Fuzzy Logic ermöglicht es, Wissen in Form von unscharfen Regeln darzustellen. Diese ahmen das menschliche Denken und die Entscheidungsfindung nach und helfen KI-Systemen dabei, unvollständiges Wissen zu nutzen. So können Regeln wie „Bei niedriger Temperatur ist der Raum kalt. Wird geheizt, steigt die Temperatur, der Raum wird warm.“ in Fuzzy Logic präziser formuliert werden, um verschiedene Abstufungen von „niedrig“ und „hoch“ sowie „warm“ und kalt“ zu berücksichtigen und darauf die Heizleistung abzustimmen.
Aufgrund dieser Eigenschaften wird Fuzzy Logic häufig in regelbasierten Expertensystemen eingesetzt. Diese Systeme nutzen Fuzzy-Regeln, um unscharfe Eingaben oder unpräzise Fragen zu verarbeiten und daraus konkrete Ausgaben als Entscheidungsgrundlage oder Empfehlung zu generieren. In der Automatisierungstechnik ist sie eine der informationstechnischen Grundlagen zur Steuerung von Haushaltsgeräten wie Waschmaschinen oder Klimaanlagen, aber auch von Service- und Industrierobotern. Die Bildverarbeitung greift auf Fuzzy Logic zurück, um verzerrte, unscharfe oder nur teilweise sichtbare Bildelemente zu identifizieren und der weiteren Be- und Verarbeitung zuzuführen.
In Kombination mit anderen KI-Techniken wie genetischen Algorithmen oder neuronalen Netzen kann die Leistungsfähigkeit von KI-Systeme deutlich gesteigert werden. Solche „hybriden“ Anwendungen nutzen die Stärken der verschiedenen Methoden, um komplexe, mit hoher Unsicherheit behaftete Probleme in der realen Welt effektiv zu lösen.
Mit dem Begriff „Generative KI“ werden die Arten von künstlicher Intelligenz bezeichnet, die in der Lage sind, neue Inhalte zu erstellen, also in bestimmtem Maß – nach Vorgaben oder anhand von Fragen – kreativ zu werden. Damit reichen ihre Fähigkeiten weit über die der analytischen KI hinaus, die „nur“ bestehende Datensätze untersuchen, Elemente identifizieren und klassifizieren bzw. Daten auswerten sowie be- und verarbeiten kann.
Generative KI-Systeme können, je nach Einsatzgebiet, alle analytischen Verfahren nutzen, um darauf aufbauend geschriebene und gesprochene Texte, Bilder und Videos, Musik und andere Formen von Medien zu erzeugen – bis hin zu virtuellen Räumen oder Gaming-Umgebungen, bei denen eine Interaktion zwischen Nutzer und VR möglich ist.
Zu den Einsatzgebieten der generativen KI gehören unter anderem diese Bereiche:
Kreatives Schreiben: Generative KI kann Zusammenfassungen, Berichte, Geschichten, Gedichte oder sogar Drehbücher erstellen. Dazu werden bestehende Datensätze und Texte analysiert und deren Inhalte aufbereitet sowie nach vorgegebenen Kriterien, Anweisungen oder anhand von Fragen – Prompts – neu zusammengestellt und ausformuliert. Diese Leistung nutzen sowohl Privatpersonen – auch Schüler und Studenten – als auch Mitarbeiter von Unternehmen in den unterschiedlichsten Branchen. So ist der Einsatz von generativer KI im sogenannten „Robot-Journalismus“ bereits alltäglich, etwa bei der Spielberichterstattung über regionale Fußballereignisse oder in der Wettervorhersage. KI erleichtert die redaktionelle Arbeit und die Themenfindung, auch durch das Auffinden von Inhalten und deren Zusammenstellung.
Bild- und Tonbearbeitung: Mithilfe der generativen KI lassen sich Bilder bearbeiten und nachbessern, indem bestehende Inhalte entfernt, verändert oder ergänzt werden. Ein Retuschieren und Nachkolorieren etwa zur Verbesserung der Bildqualität ist dabei ebenso möglich wie die gewollte Manipulation, um eine gewünschte Realität, einen vermeintlich wahren Sachverhalt, vorzutäuschen. Die Leistungen der Tonbearbeitung sind damit vergleichbar: Hintergrundrauschen und Störgeräusche lassen sich damit unterdrücken, Gespräche in gleichbleibender Lautstärke und Qualität wiedergeben. Aber per Re-Mix sind auch der Tonfall und die Sprachmelodie von Personen imitierbar – der Wahrheitsgehalt des gesprochenen Wortes ist trotz vermeintlicher Authentizität dann nicht mehr ohne Weiteres zu klären. Entsprechende Manipulationen sind nicht nur für die Werbebranche interessant, sondern beispielsweise ebenso für Influencer mit krimineller Energie oder staatliche Organe.
Bild- und Kunstgenerierung: Generative KI kann nicht nur zur Bearbeitung von Bild und Ton eingesetzt werden, sondern auch ganz neue Werke schaffen – vom „Foto“ über Grafiken und Gemälde bis hin zu Bewegtbildern wie Clips und Videos. Prompts als Ausführungsbefehle geben Stil und Motive, Farben und Perspektiven oder Kamerafahrten und Aufnahmetechniken vor. Die Ergebnisse sind dann wortwörtlich Kunstwerke, für die Sammler auf Auktionen mittlerweile hohe Preise zahlen.
(https://www.tagesschau.de/wirtschaft/digitales/ki-gemaelde-versteigerung-alan-turing-100.html)
Musikkomposition: Was für Sprache, Bild und Ton gilt, gilt ebenso im musikalischen Bereich: KI kann Musikstücke komponieren. Dabei wird per Prompt zum Beispiel vorgegeben, welcher Musikstil gewünscht ist, welche Elemente kombiniert und welche Instrumente in welcher Zusammenstellung eingesetzt werden sollen. Synthetische Kaufhaus-Hintergrund- oder auch Fahrstuhlmusik sind die einfachsten Varianten. Zu den komplexesten bisherigen Aufgaben gehören vermutlich die Vollendung von Schuberts Unvollendeter sowie die Fertigstellung der X. Symphonie von Beethoven mit KI. Durch Analyse der bestehenden Fragmente und Aufzeichnungen sowie anschließender sinngemäßer Interpretation und Fortführung der begonnenen Werke wurden stilsicher neue Kompositionen kreiert.
Sprachübersetzung: Generative KI kann Texte ebenso wie gesprochene Sprache übersetzen, wenn für diese Sprache Wörterbücher und Regelwerke – Grammatiken – sowie eine hinreichende Menge Beispieltexte und Sprachaufzeichnungen vorliegen. Anhand derer kann die KI trainiert werden und dabei die inhaltlichen Zusammenhänge, den Kontext, und die Nuancen der Sprache berücksichtigen. So wird sogar Simultandolmetschen möglich.
Chatbots und virtuelle Assistenten: Chatbots und Sprachassistenten sind mittlerweile weit verbreitet. Alexa und Siri sind bekannte Hilfssysteme im Haushalt. Smartphones nutzen die Spracheingabe beim Einsatz von Suchdiensten. Navigationssysteme können angewiesen werden, den Weg zu einem Ziel zu finden, und teilen mit, welche Route man einschlagen, welche Verkehrswege man wie lange nutzen und welche Richtungswechsel man wann vornehmen soll. Auf den Internetseiten von Onlineshops oder bei Beratungsstellen sind Chatbots die Ansprechpartner bei Fragen und geben rund um die Uhr Auskunft im Dialog. All diese Technologien nutzen generative KI, um mit Menschen Gespräche führen und auf Anfragen reagieren zu können.
Spieleentwicklung: Generative KI ist die Grundlage der heutigen Gaming-Branche. Sie erschafft virtuelle Welten, entwirft Avatare und entwickelt Charaktere, die Gamer annehmen oder gegen die sie antreten können. Dynamische Inhalte ermöglichen Interaktionen zwischen menschlichen und nichtmenschlichen Akteuren. Dazu gehören beispielsweise Computer Generated Images (CGIs), Non-Human Characters (NHCs) oder auch Nicht-Spieler-Charaktere (NSC) bzw. Non-Player Characters (NPCs), die verschiedene Funktionen ausüben können.
Datenanalyse und Forschung: KI kann helfen, große Datenmengen, Big Data, nach bestimmten vorher festgelegten oder auch selbst von der KI aufgestellten oder entwickelten Kriterien zu durchforschen und zu analysieren. Die generative KI kann dabei Muster und Trends identifizieren oder Auffälligkeiten erkennen und daraus Ursachen sowie Vorschläge für Problemlösungen ableiten, aber auch aufkommende Themen und Forschungslücken erkennen oder neue Hypothesen formulieren. Bereits wenige Beispiele zeigen die Bedeutung der KI für die Forschung auf:
- Ein Einsatzgebiet dieser KI ist die Klimaforschung, bei der Klimadaten ausgewertet werden, um Klimamodelle ständig weiterzuentwickeln, das System Klima besser zu verstehen und die Vorhersagen zu verbessern. (https://www.dkrz.de/de/kommunikation/aktuelles/ki-publikation_naturecomm)
- Ein weiteres wichtiges Anwendungsgebiet ist die Medizin. Hier werden nicht nur Bilddaten per KI ausgewertet, um Auffälligkeiten zu entdecken, es können auch Avatare als digitale Doppelgänger von Menschen erstellt werden, um Bewegungsmuster zu analysieren und neurologische Störungen zu erkennen. Daten aus der Computertomografie (CT) oder der Magnetresonanztomographie (MRT) können beispielsweise zu 3-D-Darstellungen verarbeitet werden, um räumliche Abhängigkeiten aufzuspüren und sichtbar zu machen. Dies kann die Grundlage sein für neue Operationstechniken oder für die Entwicklung individuell funktional angepasster Prothesen. (https://www.iks.fraunhofer.de/de/themen/kuenstliche-intelligenz/kuenstliche-intelligenz-medizin.html).
- Auch in der Mathematik, in der mathematischen Forschung, werden KI-Systeme eingesetzt, um beispielsweise das logische Schließen und das Beweisen komplexer mathematischer Zusammenhänge und Annahmen voranzutreiben.(https://www.spektrum.de/news/wie-ki-und-beweispruefer-die-arbeit-von-mathematikern-veraendern/2210083)
- In der Landwirtschaft hilft die KI, anhand von Daten von Bodensensoren, Wetterprognosen und der Beurteilung des Pflanzenzustands den Einsatz von Dünge- und Pflanzenschutzmitteln oder die Bewässerung zu optimieren. Ställe und Gewächshäuser werden KI-gesteuert klimatisiert und belüftet. Melkroboter, Fütterungs- und Reinigungsanlagen sind bereits Standard, es gibt selbstfahrende Traktoren und Erntemaschinen. (https://www.landwirtschaft.de/wirtschaft/beruf-und-betrieb/trends-und-innovationen/welche-rolle-spielt-kuenstliche-intelligenz-in-der-landwirtschaft)
Diese Beispiele zeigen, wie vielseitig generative KI ist und wie sie in verschiedenen Branchen und Anwendungen eingesetzt werden kann.
Der Mensch besitzt eine natürliche Intelligenz, er ist neugierig und erfindungsreich. Das spiegelt sich in seinem Forscherdrang und im Fortschritt wider. Zumindest in Naturwissenschaft und Technik gilt: Was machbar ist, wird gemacht, was machbar scheint, wird ausprobiert. Die Folgen werden zunächst oft entweder nicht bedacht oder verharmlost, da eine neue Idee erst einmal begeistert. Teils sind positive oder negative Auswirkungen auch gar nicht von Anfang an in ihrem vollen Umfang sichtbar und offenbaren sich erst allmählich, wenn eine Grenze überschritten wurde.
Die künstliche Intelligenz hat ein weites Feld an Möglichkeiten eröffnet. Die Auswirkungen sind jetzt schon nahezu überall spürbar, ob im Privatleben oder in der Arbeitswelt. Oft wird der Einsatz von KI schon gar nicht mehr wahrgenommen, da genutzte Funktionen und Systeme mittlerweile selbstverständlich sind und nicht mehr hinterfragt werden.
KI kann dabei ohne Frage das Leben erleichtern. Viele Geräte werden durch KI smart, was die Menge an genutzten Smartphones, Smartwatches, Smart-TV oder auch Haushalts- und Servicerobotern eindrucksvoll belegt. Andere smarte Apparate verbergen sich eher im Hintergrund: Im Smarthome sind smarte Wasser- und Gasuhren im Hausanschlussraum im Einsatz, gekoppelte Heizungssysteme aus Photovoltaikanlage und Wärmepumpe sorgen für Strom und Wärme. Im Klassenzimmer oder im Konferenzraum sind Whiteboards und KI-gesteuerte Klimaanlagen, Licht- und Blendschutzsysteme im Einsatz. Schutz- und Sicherheitseinrichtungen sind so intelligent, dass sie Personen erkennen und Zugangsregelungen ausführen. Remote-Steuerungen ermöglichen per Internet den direkten Zugriff auf Funktionen, wenn ein Eingreifen erforderlich scheint.
KI-gesteuerte Roboter, autonome Fahrzeuge, sich selbst regelnde Fertigungsanlagen, KI-generierte Vorschläge zur Prozessoptimierung – all das ist bereits in vielen Unternehmen der unterschiedlichsten Branchen Realität. Die Spanne reicht von der Abfallwirtschaft über Handel und Industrie, Land- und Forstwirtschaft, Logistik sowie Medizin und Pflege bis zu Schulungsanbietern und Versorgungsunternehmen. Die KI nimmt uns dabei nicht nur häufig wiederkehrende, repetitive, langweilige oder ermüdende Arbeiten ab, sondern kann auch Vorschläge zur Verbesserung von Abläufen liefern. Generative KI kann uns außerdem bei kreativen Prozessen – Schreiben, Dichten, Musizieren, Komponieren – unterstützen. Chatbots und Sprachassistenten suchen für uns im Internet und beantworten uns in kürzester Zeit Fragen. KI-Systeme sprechen uns persönlich an und machen uns auf unsere Vorlieben und Gewohnheiten abgestimmte individuelle Angebote. Auch viele Amtsgeschäfte ließen sich über das Internet und smarte Funktionen abwickeln – dies ist in Staaten wie Estland oder Lettland bereits üblich.
(https://www.behoerden-spiegel.de/2024/12/04/kein-perfektionismus-in-riga/)
Das Potenzial für den Einsatz von KI zur Erleichterung des täglichen Lebens, ob privat oder am Arbeitsplatz, ist immens. Da das Verhalten der KI immer intelligenter oder menschlicher wird, ist bald nicht mehr zu entscheiden, ob ein Werk oder eine Antwort von einer Maschine erstellt wurde oder von einem Menschen. Der Turing-Test kann bestanden werden. Die nächste Frage ist, ob eine Maschine in der Lage ist, ein Bewusstsein ihrer selbst zu entwickeln – oder ein solches immer nur vortäuschen wird. Daraus ergeben sich grundsätzliche ethische Fragen, die bereits vor mehr als 80 Jahren vom Genre Science-Fiction aufgegriffen wurden. So stellte der Biochemiker und Autor Isaac Asimov bereits 1942 in seiner Erzählung „Runaround“ die bekannten Roboter-Gesetze auf, die viele andere Autoren und Filmemacher inspiriert haben.
(https://jurios.de/2023/08/29/isaac-asimov-und-seine-robotergesetze/)
Bewusst machen sollten wir uns, dass KI nicht isoliert funktioniert. Die Basis der künstlichen Intelligenz ist der Zugriff auf riesige Datenmengen, um lernen zu können. Dieser Zugriff wird durch die weltweilte Vernetzung garantiert: Das Internet und der globalisierte Datenverkehr sind das Rückgrat der Kommunikation zwischen Privatleuten, kommerziellen Anbietern, öffentlichen Einrichtungen und verschiedensten staatlichen und nichtstaatlichen Organisationen – und auch dem organisierten Verbrechen. Die Datengrundlage schaffen wir in vielen Fällen selbst, vom bargeldlosen Bezahlen über die Telemetriedaten unseres Autos bis zu Sendeprotokollen des Heimnetzwerks: Smarte Geräte und mit Chips versehene alltägliche Gebrauchsgegenstände, vom Handy über die Kredit- oder Debitkarte bis zum Smart-TV, moderne Fahrzeuge mit GIS- und anderen (Fahr-)Assistenzsystemen, mobil eingesetzte, aber auch stationär genutzte Geräte liefern eine Unmenge an Daten – Bewegungs- und Aufenthaltsdaten, physiologische und medizinische Daten, Daten über Einkaufs- und Konsumverhalten, über bevorzugte Themen, Interessen und Hobbies und sogar Verbrauchsdaten für Strom, Gas und Wasser. Der gläserne Mensch ist längst Wirklichkeit, auch ohne verdeckte Aktionen von Geheimdiensten.
Kommen noch Daten aus dem öffentlichen Raum hinzu, etwa durch Gesichtserkennung an Straßenkreuzungen und Zugangskontrollen zu öffentlichen Einrichtungen, wird eine totale Überwachung möglich. Wird KI dann auch noch dazu eingesetzt, Bild- und Tondokumente zu manipulieren – auch rückwirkend, in den Archiven –, Falschnachrichten bzw. „alternative Fakten“ zu verbreiten und per Social Media und bezahlten Influencergruppen Meinungen zu beeinflussen, dann ist der von George Orwell in dem Roman „1984“ beschriebene „Big Brother“ nicht mehr weit. Und er ist unsterblich, denn Bilder, Audios, Videos und andere Darstellungen können über den Tod dieser Person hinaus sowie immer authentischer hergestellt und verbreitet werden.
KI kann sich als Fluch oder als Segen erweisen – je nach Anwendung. Die Potenziale sind riesig. Welche wir nutzen, liegt in unserer Hand.
Ihr Ansprechpartner
Torsten Klanitz
Produktmanager
Fon: +49 6151 8801 125