1
Quo Vadis, IT?
16. Darmstädter Kunststofftag
21.06.2024
Joachim Baumann
2
Schwerpunkte
Fire-Fighting in großen Projekten
Agile Methoden
Agile Organisationen
Fachbeirat Konferenz Manage-Agile seit 2012
Architektur großer Systeme,
Kommunikationsnetze, Verteilte Systeme,
Datenbanken
Veröffentlichungen
5 Bücher, Broschüre über Continuous Delivery
Über 40 Artikel in Fachzeitschriften und Blogs
Vorträge auf int. und deutschen Konferenzen
Ausbildung
1986-1992 Informatik Universität Stuttgart
1994-1999 Promotion Universität Stuttgart,
Universität Genf
2000 Postdoc Universität Stuttgart
Beruflicher Werdegang
ANT Bosch Telecom, Software-Entwickler
COSS Softwaretechnik AG, Bereichsleiter
Produktentwicklung und Forschung
Junidas GmbH, Geschäftsführer
Xinaris GmbH, Geschäftsführer
Cirquent GmbH, Leitung CC iBPM, Director Shoring
Hochschuldozent Fachhochschule Karlsruhe
codecentric AG, Geschäftsführer Frankfurt, Stuttgart
Capgemini, Delivery Banking Frankfurt
dibuco GmbH & Co. KG, Geschäftsführer
Digital Frontiers GmbH & Co. KG, Geschäftsführer
Wer bin ich?
3
Unser Vorgehen zur Beantwortung der Frage
Wir betrachten “Hype”-Technologien und ihre Auswirkungen
Big Data
Zeit
Generative
Künstliche
Intelligenz
Künstliche
Allgemeine
Intelligenz
Quanten-Computing
Vergangenheit Gegenwart Zukunft
Robotik
4
Interludium: Gartner Hype Cycle
Aufmerksamkeit
Zeit
Technologischer Auslöser
Gipfel der überzogenen Erwartungen
Tal der Enttäuschung
Pfad der Erleuchtung
Plateau der Produktivität
Abgrund des Vergessens
5
Big Data - Die Hoffnung
Data Lakes
Problem der großen Datenmengen
Volumen (Volume)
Geschwindigkeit (Velocity)
Vielfalt (Variety)
Lösungsvision
Speichern alles (für immer)
Erlauben Zugriff auf alles
Ermöglichen schnellere und einfachere Algorithmen
Gipfel der überzogenen Erwartungen
6
Big Data - Die Realität
Data Swamps / Big Data Graveyards
Problem
Erweiterungen sind sehr schwer implementierbar
Die benötigten Daten sind
● Nicht vorhanden
● Nicht auffindbar
Und es ist unklar, ob das eine oder das andere.
Tal der Enttäuschung
Warum?
7
Interludium: Wissensmodell
Daten
● Selektiert aus der Gesamtmenge von Daten
Information
● Verdichtet aus den selektierten Daten
Korrelation (Modell)
● Konsistente Sicht auf die Information
● Beeinflusst Daten- und Informationsselektion
Interpretation (Paradigma)
● Erklärt die Information anhand des Modells
● Schärft Daten- und Informationsselektion
Wissen
● Basiert auf Modell und Interpretation
● Basiert nicht notwendigerweise auf Fakten
Dynamischer Prozess mit Feedback
Erzeugt “Schubladen”, erlaubt schnelles Lernen
Korrelation und Interpretation formen Weltbild
Wissen
Interpretation
Korrelation
Information
Selektierte Daten
Beeinflussung
8
Spätes 17. Jahrhundert:
● Annahme: es braucht ein Medium für die Ausbreitung von Licht
als Welle (vorher Licht als Korpuskel - Newton)
● Warum? Schall, Wasser, …
Wir haben also ein Modell und ein Paradigma, das ein Medium benötigt
Damit: Wir haben das Wissen, dass wir ein Medium brauchen
In dieser Zeit: Maxwell, Fresnel, Navier, de Coulomb, Ampère, Faraday,...
100 Jahre hielt dieses Wissen allen Problemen stand
Erst 1887 Experiment von Michelson-Morley
Wissensmodell - Beispiel Äther
Lichtquelle
Beam
Splitter
Spiegel
Spiegel
Schirm
9
Big Data - Problem und Lösungsansatz
Problem
Falsche Annahme: Modell und Interpretation bleiben
unverändert und sind bekannt
Lösungsansatz: Änderung der Definition von “Big” in Big Data
Echtheit (Veracity)
Wert (Value)
Korrektheit (Validity)
Data Lakes werden nur sehr selten verwendet
zeitlich kurz, fokussiert
Microtargeting/Wahlmanipulation, Social Scoring
10
Wissensmodell
Änderung der Definition entspricht verspäteter
Einführung von Modell und Interpretation
Einordnung Big Data Data Lakes
Gartner Hype-Cycle
Definitionsänderung aus Hype-Sicht zu spät
Aufmerksamkeit
Zeit
Technologischer Auslöser
Gipfel der überzogenen Erwartungen
Tal der Enttäuschung
Pfad der Erleuchtung
Plateau der Produktivität
Abgrund des Vergessens
Big
Data
?
?
?
Information
Selektierte Daten
11
“Alles was noch nicht per Software gemacht werden kann…” - Tesler’s Theorem
Vergangenheit
Genetische Algorithmen
Expertensysteme
Neuronale Netze
Machine Learning
Aktuell (schwache KI)
Generative KI (sehr große Modelle)
Zukünftig (starke KI)
Künstliche Allgemeine Intelligenz
Humanoide Roboter (Androiden)
Technologische Singularität (Raymond Kurzweil)
Was ist Künstliche Intelligenz?
12
Was ist generative KI?
Aufgrund eines Eingabetextes (der Historie) werden die
wahrscheinlichsten nächsten Ausgaben generiert
Generieren
● Texte (z.B. ChatGPT)
● Bilder (z.B. Midjourney)
● Videos (z.B. Sora)
Werden mit sehr großen Datenmengen trainiert (Weltwissen)
13
Was können Sie?
LLMs beinhalten implizit Informationen, Modell und Interpretation
In diesem Kontext können sie Wissen reproduzieren
Wichtig: Das Wissen stellt die Gemeinsamkeit der Informationen dar
Grundlegende Probleme
Halluzinationen
Irren und “Betrug” möglich und wahrscheinlich
Übernahme menschlicher Vorurteile
Manipulierbarkeit durch Eingaben
Manipulierbarkeit bei der Modellerstellung
Was können sie nicht?
Harte Fakten
Verständnis
Was sind Large Language Models (LLMs)?
14
Beispiel ChatGPT
GPT-1 Juni 2018 117 Millionen Parameter
GPT-2 Feb. 2019 1,5 Milliarden Parameter
GPT-3 Juni 2020 175 Milliarden Parameter
GPT-4 März 2023 1,76 Billionen Parameter
(Parameter sind Ausgabeoptionen, modellspezifisch)
Training von GPT-4: 6 Monate, ca. 100 Mio. $
3-4 Größenordnungen kleiner als das menschliche Gehirn mit 80-100 Billionen Neuronen
(andere Architektur, generellere Neuronen etc.)
15
Wissensmodell
Modell und Interpretation sind direkt enthalten
Halluzinationen als Beispiel von nicht faktischem
Wissen
Einordnung Künstliche Intelligenz
Gartner Hype-Cycle
Mitten im Hype, weiter ansteigend
Aufmerksamkeit
Zeit
Technologischer Auslöser
Gipfel der überzogenen Erwartungen
Tal der Enttäuschung
Pfad der Erleuchtung
Plateau der Produktivität
Abgrund des Vergessens
gKI
Wissen
Interpretation
Korrelation
Information
Selektierte Daten
16
Problem
Systeme brauchen sehr große Datenmengen für das Training
Starker Mehrbedarf für größere Systeme
Woher nehmen?
Datenschutz und DSGVO
Persönliche Rechte an Daten
Wie reduzieren?
Menschliches Hirn braucht deutlich weniger Daten für Training
Schubladendenken, stärkere Rückpropagierung, komplexere Struktur
Technische Herausforderungen: Daten
17
Erstellung
● GPT-2 15 MW
● GPT-3 1,2 GW
● GPT-4 geschätzt 50-60 GW
Nutzung
● GPT-4 200W
● Menschliches Hirn 10-20W
Energieverbrauch sollte massiv gesenkt werden
Und dennoch: Wir brauchen deutlich mehr Energie
Technische Herausforderungen: Energie
18
Aktuelle gesellschaftliche Herausforderungen: Vertrauen
Vertrauen in Fakten und Wissen lässt nach
Allgemein
Vertrauen in Fakten und allgemeines Wissen lässt nach
Fake News überfluten den öffentlichen Raum
Offene Fragen
Wie überprüfe ich die faktische Korrektheit von Wissen?
Wie gehe ich mit Überflutung um?
Persönlich Verstärkt durch größeres Misstrauen
Kleingruppe Leicht abgeschwächt
Medien Stark abgeschwächt
Staat Sehr stark abgeschwächt
19
Aktuelle gesellschaftliche Herausforderungen: Nutzen
I want AI to do my laundry and dishes so that I can do
art and writing, not for AI to do my art and writing so that
I can do my laundry and dishes. — Joanna Maciejewska
Aktuelle Verbesserungen hauptsächlich für Produktivität
20
Wir sind bereits in der Wissensrevolution
Jeder Übergang zwischen Gesellschaftsarten führt zu einem Mehrbedarf an Energie
(Beispiel Übergang zur Industriegesellschaft)
Gleichzeitig Verlagerung weniger komplexer Bürojobs (White Collar) auf KI. Beispiele:
● Controller
● Versicherungsfachangestellte
● Schlechte bis mittelkompetente Software-Entwickler
Allgemein stärkere Unterstützung durch KI
21
Wissensrevolution: Effekte
Weitere Reduktion des humboldtschen Gedankens
Weitere Reduktion der Qualität kreativer Produkte
Deutliche mehr Arbeitslose
Soziale Verwerfungen
22
In Wirklichkeit jedoch gibt es keinerlei Grund zu der Annahme, künstliche Intelligenz
werde Bewusstsein erlangen, denn Intelligenz und Bewusstsein sind völlig
unterschiedliche Dinge. Intelligenz ist die Fähigkeit, Probleme zu lösen. Bewusstsein ist
die Fähigkeit, Dinge wie Schmerz, Freude, Liebe und Wut zu empfinden. Wir vermischen
beides gerne, denn bei den Menschen und anderen Säugetieren geht Intelligenz mit
Bewusstsein einher. Säugetiere lösen die meisten Probleme, indem sie Dinge empfinden.
Computer jedoch lösen Probleme auf völlig andere Weise.
21 Lektionen für das 21. Jahrhundert, S.160, Yuval Noah Harari
Künstliche Allgemeine Intelligenz: Brauchen wir das?
23
Künstliche Allgemeine Intelligenz
Brauchen wir Bewusstsein?
Summe von Sinneseindrücken, Informationsgewinnung, innere
Abbildung
Wahrscheinlich ausreichend für Robotik
Brauchen wir Selbstbewusstsein?
Emotionale und kognitive Reaktionen, Reflektion
Höhere Leistungsfähigkeit und höhere Autonomie der KI
Ist Kreativität mit Selbstbewusstsein verbunden?
Können wir auf Selbstbewusstsein verzichten?
24
Annahmen
KI erweitert eigene Leistungsfähigkeit exponentiell
Kann nur temporär beschränkt werden
Beschränkungen (Asimovs Robotergesetze) können umgangen werden
Risiken
Autoritäre Regimes, große Firmen werden Gesetze ignorieren
Aktuelles Beispiel: Paul Nakasone (Leiter NSA) geht zu OpenAI
Gier und Dummheit (siehe Hanlon’s Law)
Skynet?
Künstliche Allgemeine Intelligenz: Risiken
25
Annahmen
Analoger Geschwindigkeitszuwachs wie bisher
Unterschied 4 Größenordnungen
Architekturen allgemein genug für Bewusstsein
Grobe Abschätzung
Erreicht in 10 Jahren
Künstliche Allgemeine Intelligenz: Grobe Zeitabschätzung
26
Ideen
Direkte Schnittstelle Hirn - Computer
● An Schnittstellen wird bereits gearbeitet
Verschmelzung Hirn - KI
● Denkleistung, Erinnerung, Geschwindigkeit
Backup
● Digitalisierung des menschlichen Hirns
● Biologische Instanziierung im Notfall
Simulation
● Menschliches Bewusstsein im Rechner
Technologische Singularität (Raymond Kurzweil, Vernor Vinge)
● Vorausgesagt für ca. 2045
Viele weitere Ideen…
Weitere Zukunft
27
Wir sind in der Wissensrevolution
Generative KI wird erfolgreich sein
Es wird soziale Verwerfungen geben
Neue Modelle für Vertrauen notwendig
Künstliche Allgemeine Intelligenz braucht noch ca. 10 Jahre
Sie wird kommen
Wir leben in interessanten Zeiten
Zusammenfassung
28
Vielen Dank für Ihre Aufmerksamkeit
Übrigens sind fast alle Bilder KI-generiert…
joachim.baumann@digitalfrontiers.de
www.digitalfrontiers.de
29
Bilder
Ätherwind: https://commons.wikimedia.org/wiki/File:%C3%84therwind.svg
Lizenz: https://creativecommons.org/licenses/by/3.0/deed.en
Andere Bilder erzeugt mit Midjourney

Keynote 16. Darmstädter Kunststofftag - alle Folien.pdf

  • 1.
    1 Quo Vadis, IT? 16.Darmstädter Kunststofftag 21.06.2024 Joachim Baumann
  • 2.
    2 Schwerpunkte Fire-Fighting in großenProjekten Agile Methoden Agile Organisationen Fachbeirat Konferenz Manage-Agile seit 2012 Architektur großer Systeme, Kommunikationsnetze, Verteilte Systeme, Datenbanken Veröffentlichungen 5 Bücher, Broschüre über Continuous Delivery Über 40 Artikel in Fachzeitschriften und Blogs Vorträge auf int. und deutschen Konferenzen Ausbildung 1986-1992 Informatik Universität Stuttgart 1994-1999 Promotion Universität Stuttgart, Universität Genf 2000 Postdoc Universität Stuttgart Beruflicher Werdegang ANT Bosch Telecom, Software-Entwickler COSS Softwaretechnik AG, Bereichsleiter Produktentwicklung und Forschung Junidas GmbH, Geschäftsführer Xinaris GmbH, Geschäftsführer Cirquent GmbH, Leitung CC iBPM, Director Shoring Hochschuldozent Fachhochschule Karlsruhe codecentric AG, Geschäftsführer Frankfurt, Stuttgart Capgemini, Delivery Banking Frankfurt dibuco GmbH & Co. KG, Geschäftsführer Digital Frontiers GmbH & Co. KG, Geschäftsführer Wer bin ich?
  • 3.
    3 Unser Vorgehen zurBeantwortung der Frage Wir betrachten “Hype”-Technologien und ihre Auswirkungen Big Data Zeit Generative Künstliche Intelligenz Künstliche Allgemeine Intelligenz Quanten-Computing Vergangenheit Gegenwart Zukunft Robotik
  • 4.
    4 Interludium: Gartner HypeCycle Aufmerksamkeit Zeit Technologischer Auslöser Gipfel der überzogenen Erwartungen Tal der Enttäuschung Pfad der Erleuchtung Plateau der Produktivität Abgrund des Vergessens
  • 5.
    5 Big Data -Die Hoffnung Data Lakes Problem der großen Datenmengen Volumen (Volume) Geschwindigkeit (Velocity) Vielfalt (Variety) Lösungsvision Speichern alles (für immer) Erlauben Zugriff auf alles Ermöglichen schnellere und einfachere Algorithmen Gipfel der überzogenen Erwartungen
  • 6.
    6 Big Data -Die Realität Data Swamps / Big Data Graveyards Problem Erweiterungen sind sehr schwer implementierbar Die benötigten Daten sind ● Nicht vorhanden ● Nicht auffindbar Und es ist unklar, ob das eine oder das andere. Tal der Enttäuschung Warum?
  • 7.
    7 Interludium: Wissensmodell Daten ● Selektiertaus der Gesamtmenge von Daten Information ● Verdichtet aus den selektierten Daten Korrelation (Modell) ● Konsistente Sicht auf die Information ● Beeinflusst Daten- und Informationsselektion Interpretation (Paradigma) ● Erklärt die Information anhand des Modells ● Schärft Daten- und Informationsselektion Wissen ● Basiert auf Modell und Interpretation ● Basiert nicht notwendigerweise auf Fakten Dynamischer Prozess mit Feedback Erzeugt “Schubladen”, erlaubt schnelles Lernen Korrelation und Interpretation formen Weltbild Wissen Interpretation Korrelation Information Selektierte Daten Beeinflussung
  • 8.
    8 Spätes 17. Jahrhundert: ●Annahme: es braucht ein Medium für die Ausbreitung von Licht als Welle (vorher Licht als Korpuskel - Newton) ● Warum? Schall, Wasser, … Wir haben also ein Modell und ein Paradigma, das ein Medium benötigt Damit: Wir haben das Wissen, dass wir ein Medium brauchen In dieser Zeit: Maxwell, Fresnel, Navier, de Coulomb, Ampère, Faraday,... 100 Jahre hielt dieses Wissen allen Problemen stand Erst 1887 Experiment von Michelson-Morley Wissensmodell - Beispiel Äther Lichtquelle Beam Splitter Spiegel Spiegel Schirm
  • 9.
    9 Big Data -Problem und Lösungsansatz Problem Falsche Annahme: Modell und Interpretation bleiben unverändert und sind bekannt Lösungsansatz: Änderung der Definition von “Big” in Big Data Echtheit (Veracity) Wert (Value) Korrektheit (Validity) Data Lakes werden nur sehr selten verwendet zeitlich kurz, fokussiert Microtargeting/Wahlmanipulation, Social Scoring
  • 10.
    10 Wissensmodell Änderung der Definitionentspricht verspäteter Einführung von Modell und Interpretation Einordnung Big Data Data Lakes Gartner Hype-Cycle Definitionsänderung aus Hype-Sicht zu spät Aufmerksamkeit Zeit Technologischer Auslöser Gipfel der überzogenen Erwartungen Tal der Enttäuschung Pfad der Erleuchtung Plateau der Produktivität Abgrund des Vergessens Big Data ? ? ? Information Selektierte Daten
  • 11.
    11 “Alles was nochnicht per Software gemacht werden kann…” - Tesler’s Theorem Vergangenheit Genetische Algorithmen Expertensysteme Neuronale Netze Machine Learning Aktuell (schwache KI) Generative KI (sehr große Modelle) Zukünftig (starke KI) Künstliche Allgemeine Intelligenz Humanoide Roboter (Androiden) Technologische Singularität (Raymond Kurzweil) Was ist Künstliche Intelligenz?
  • 12.
    12 Was ist generativeKI? Aufgrund eines Eingabetextes (der Historie) werden die wahrscheinlichsten nächsten Ausgaben generiert Generieren ● Texte (z.B. ChatGPT) ● Bilder (z.B. Midjourney) ● Videos (z.B. Sora) Werden mit sehr großen Datenmengen trainiert (Weltwissen)
  • 13.
    13 Was können Sie? LLMsbeinhalten implizit Informationen, Modell und Interpretation In diesem Kontext können sie Wissen reproduzieren Wichtig: Das Wissen stellt die Gemeinsamkeit der Informationen dar Grundlegende Probleme Halluzinationen Irren und “Betrug” möglich und wahrscheinlich Übernahme menschlicher Vorurteile Manipulierbarkeit durch Eingaben Manipulierbarkeit bei der Modellerstellung Was können sie nicht? Harte Fakten Verständnis Was sind Large Language Models (LLMs)?
  • 14.
    14 Beispiel ChatGPT GPT-1 Juni2018 117 Millionen Parameter GPT-2 Feb. 2019 1,5 Milliarden Parameter GPT-3 Juni 2020 175 Milliarden Parameter GPT-4 März 2023 1,76 Billionen Parameter (Parameter sind Ausgabeoptionen, modellspezifisch) Training von GPT-4: 6 Monate, ca. 100 Mio. $ 3-4 Größenordnungen kleiner als das menschliche Gehirn mit 80-100 Billionen Neuronen (andere Architektur, generellere Neuronen etc.)
  • 15.
    15 Wissensmodell Modell und Interpretationsind direkt enthalten Halluzinationen als Beispiel von nicht faktischem Wissen Einordnung Künstliche Intelligenz Gartner Hype-Cycle Mitten im Hype, weiter ansteigend Aufmerksamkeit Zeit Technologischer Auslöser Gipfel der überzogenen Erwartungen Tal der Enttäuschung Pfad der Erleuchtung Plateau der Produktivität Abgrund des Vergessens gKI Wissen Interpretation Korrelation Information Selektierte Daten
  • 16.
    16 Problem Systeme brauchen sehrgroße Datenmengen für das Training Starker Mehrbedarf für größere Systeme Woher nehmen? Datenschutz und DSGVO Persönliche Rechte an Daten Wie reduzieren? Menschliches Hirn braucht deutlich weniger Daten für Training Schubladendenken, stärkere Rückpropagierung, komplexere Struktur Technische Herausforderungen: Daten
  • 17.
    17 Erstellung ● GPT-2 15MW ● GPT-3 1,2 GW ● GPT-4 geschätzt 50-60 GW Nutzung ● GPT-4 200W ● Menschliches Hirn 10-20W Energieverbrauch sollte massiv gesenkt werden Und dennoch: Wir brauchen deutlich mehr Energie Technische Herausforderungen: Energie
  • 18.
    18 Aktuelle gesellschaftliche Herausforderungen:Vertrauen Vertrauen in Fakten und Wissen lässt nach Allgemein Vertrauen in Fakten und allgemeines Wissen lässt nach Fake News überfluten den öffentlichen Raum Offene Fragen Wie überprüfe ich die faktische Korrektheit von Wissen? Wie gehe ich mit Überflutung um? Persönlich Verstärkt durch größeres Misstrauen Kleingruppe Leicht abgeschwächt Medien Stark abgeschwächt Staat Sehr stark abgeschwächt
  • 19.
    19 Aktuelle gesellschaftliche Herausforderungen:Nutzen I want AI to do my laundry and dishes so that I can do art and writing, not for AI to do my art and writing so that I can do my laundry and dishes. — Joanna Maciejewska Aktuelle Verbesserungen hauptsächlich für Produktivität
  • 20.
    20 Wir sind bereitsin der Wissensrevolution Jeder Übergang zwischen Gesellschaftsarten führt zu einem Mehrbedarf an Energie (Beispiel Übergang zur Industriegesellschaft) Gleichzeitig Verlagerung weniger komplexer Bürojobs (White Collar) auf KI. Beispiele: ● Controller ● Versicherungsfachangestellte ● Schlechte bis mittelkompetente Software-Entwickler Allgemein stärkere Unterstützung durch KI
  • 21.
    21 Wissensrevolution: Effekte Weitere Reduktiondes humboldtschen Gedankens Weitere Reduktion der Qualität kreativer Produkte Deutliche mehr Arbeitslose Soziale Verwerfungen
  • 22.
    22 In Wirklichkeit jedochgibt es keinerlei Grund zu der Annahme, künstliche Intelligenz werde Bewusstsein erlangen, denn Intelligenz und Bewusstsein sind völlig unterschiedliche Dinge. Intelligenz ist die Fähigkeit, Probleme zu lösen. Bewusstsein ist die Fähigkeit, Dinge wie Schmerz, Freude, Liebe und Wut zu empfinden. Wir vermischen beides gerne, denn bei den Menschen und anderen Säugetieren geht Intelligenz mit Bewusstsein einher. Säugetiere lösen die meisten Probleme, indem sie Dinge empfinden. Computer jedoch lösen Probleme auf völlig andere Weise. 21 Lektionen für das 21. Jahrhundert, S.160, Yuval Noah Harari Künstliche Allgemeine Intelligenz: Brauchen wir das?
  • 23.
    23 Künstliche Allgemeine Intelligenz Brauchenwir Bewusstsein? Summe von Sinneseindrücken, Informationsgewinnung, innere Abbildung Wahrscheinlich ausreichend für Robotik Brauchen wir Selbstbewusstsein? Emotionale und kognitive Reaktionen, Reflektion Höhere Leistungsfähigkeit und höhere Autonomie der KI Ist Kreativität mit Selbstbewusstsein verbunden? Können wir auf Selbstbewusstsein verzichten?
  • 24.
    24 Annahmen KI erweitert eigeneLeistungsfähigkeit exponentiell Kann nur temporär beschränkt werden Beschränkungen (Asimovs Robotergesetze) können umgangen werden Risiken Autoritäre Regimes, große Firmen werden Gesetze ignorieren Aktuelles Beispiel: Paul Nakasone (Leiter NSA) geht zu OpenAI Gier und Dummheit (siehe Hanlon’s Law) Skynet? Künstliche Allgemeine Intelligenz: Risiken
  • 25.
    25 Annahmen Analoger Geschwindigkeitszuwachs wiebisher Unterschied 4 Größenordnungen Architekturen allgemein genug für Bewusstsein Grobe Abschätzung Erreicht in 10 Jahren Künstliche Allgemeine Intelligenz: Grobe Zeitabschätzung
  • 26.
    26 Ideen Direkte Schnittstelle Hirn- Computer ● An Schnittstellen wird bereits gearbeitet Verschmelzung Hirn - KI ● Denkleistung, Erinnerung, Geschwindigkeit Backup ● Digitalisierung des menschlichen Hirns ● Biologische Instanziierung im Notfall Simulation ● Menschliches Bewusstsein im Rechner Technologische Singularität (Raymond Kurzweil, Vernor Vinge) ● Vorausgesagt für ca. 2045 Viele weitere Ideen… Weitere Zukunft
  • 27.
    27 Wir sind inder Wissensrevolution Generative KI wird erfolgreich sein Es wird soziale Verwerfungen geben Neue Modelle für Vertrauen notwendig Künstliche Allgemeine Intelligenz braucht noch ca. 10 Jahre Sie wird kommen Wir leben in interessanten Zeiten Zusammenfassung
  • 28.
    28 Vielen Dank fürIhre Aufmerksamkeit Übrigens sind fast alle Bilder KI-generiert… joachim.baumann@digitalfrontiers.de www.digitalfrontiers.de
  • 29.