SlideShare una empresa de Scribd logo
1 de 31
Descargar para leer sin conexión
T I T E L
U N T E R T I T E L
O R T / D A T U M
Machine Learning
Algorithmen, Modelle und mehr
Hannover, 03.07.2017
Worüber werden wir sprechen?
Modelle
Algorithmen
Maschinelles Lernen
Mit künstlicher Intelligenz ist alles möglich
Bildquelle: stern.de
Irgendwann werden wir nicht mehr gezwungen sein, selbst zu fahren,
sondern lassen uns von unserem Auto chauffieren. So das Versprechen,
welches heutzutage als erstes genannt wird, wenn jemand über
maschinelles Lernen und künstliche Intelligenz spricht.
Bis es soweit ist, vergeht sicherlich noch viel Zeit. Zeit die aber nicht der
Technologie, sondern vor allem uns Menschen geschuldet ist.
Was hinter maschinellem Lernen aber schon heute steckt, sollen die
folgenden Slides verdeutlichen.
Die erste KI war ein Betrug
1950 – Alan Turing
Der britische Mathematiker Alan Turing
stellt eine Methode vor, mit deren Hilfe
man menschliche und künstliche
Intelligenz voneinander unterscheiden
kann.
Via Tastatur und Bildschirm sollen ein
Computer und ein Mensch mit einem
Tester kommunizieren. Kann dieser
nicht eindeutig entscheiden, wer von
beiden Mensch und wer Maschine ist,
hat der Computer den Test bestanden.
1966 – Eliza, der erste Chatbot
ELIZA nennt sich ein kleines
Computerprogramm, das der deutsch-
amerikanische Informatiker Joseph
Weizenbaum geschrieben hat. Es
besteht lediglich aus ein paar Dutzend
Zeilen Programmcode, und es kann
nicht viel. ELIZA durchsucht die
Tastatureingabe des Nutzers nach
Schlüsselworten und spuckt dann eine
vermeintlich passende Erwiderung aus.
1997 – Kasparov in Schach geschlagen
2011 – IBM Watson gewinnt Jeopardy
2016 – Google AlphaGo schlägt Lee Sedol
Historische Entwicklung der KI-Forschung
Heuristische
Systeme
Mainframe
Bis 1970
Wissens-
basierte
Systeme
Supercomputer
Bis 1990
Intelligenzgrad
Lernende
Systeme
Agenten
Bis 2010
Kognitive
Systeme
GPUs
Ab 2010
Warum geht auf einmal alles so schnell?
Heuristische
Systeme
Mainframe
Bis 1970
Wissens-
basierte
Systeme
Supercomputer
Bis 1990
Intelligenzgrad
Lernende
Systeme
Agenten
Bis 2010
Kognitive
Systeme
GPUs
Ab 2010
Wir gehen immer davon aus, dass sich der Fortschritt im Bereich der
künstlichen Intelligenz linear weiterentwickelt. In Wirklichkeit folgt die
Entwicklung künstlicher Intelligenz aber einer Exponentialfunktion.
Exponentielles Wachstum ist für das menschliche Gehirn schwer
nachzuvollziehen – man denke an das Reiskorn auf dem Schachbrett.
Exponentielles „lernen“
Cloud
Computing
IoT Big Data
Machine
Learning
Deep
Learning
Pattern
Recognition
Convolutional
Neural
Networks
Agenten-
systeme
Genetic
AlgorithmsNeural
Networks
Semantic
Nets
Data
Mining
Bis 1970 Bis 1990 Bis 2010 Ab 2010
Wir gehen immer davon aus, dass sich der Fortschritt im Bereich der
künstlichen Intelligenz linear weiterentwickelt. In Wirklichkeit folgt die
Entwicklung künstlicher Intelligenz aber einer Exponentialfunktion.
Exponentielles Wachstum ist für das menschliche Gehirn schwer
nachzuvollziehen – man denke an das Reiskorn auf dem Schachbrett.
Die COMLINE AG
Gesamtzusammenhang –
Vom Modell zur Software
Was hat sich geändert?
Früher versuchten Programmierer, Software zu schreiben, die alle möglichen
Optionen und denkbaren Fälle abdeckten.
Aufgrund der inhärenten Komplexität eines solchen Ansatzes, gelingt dies nur in
einem Umfeld mit eng umrissenen und festen Regeln – Beispiel Schach.
Heutige Ansätze basieren darauf, ein Modell zu schaffen und dieses mit einer
immensen Menge an Daten zu füttern, damit das Modell, lernt auf neue und nicht
beschriebene Fälle zu reagieren.
Die Algorithmen beschreiben also nicht mehr en Detail die Abfolge und
Beziehungen von Fällen und der adäquaten Reaktion darauf, sondern schaffen
einen Rahmen (Framework), um zu lernen – AlphaGo hat das Spiel Go gelernt
nicht einprogrammiert bekommen.
Hier steht Mustertext. Bitte limitiere den Text auf
3 Sätze. Du kannst andernfalls mehrere Folien
verwenden.
Der Kasten kann grau oder dunkelgrau sein.
Was ist Machine Learning?
Mit Machine Learning (zu Deutsch: maschinelles Lernen) wird ein spezieller
Ansatz aus dem Bereich der künstlichen Intelligenz, zur Lösung von
Problemen bezeichnet.
Die Idee ist, Computerprogramme zu entwerfen welche mit Hilfe von
modellbasierten, flexiblen Algorithmen eigenständig Lösungen für neue und
unbekannte Probleme finden können.
Diese Art der algorithmischen Berechnung von Wahrscheinlichkeiten benötigt,
zumindest heutzutage, immer noch das Handeln von Menschen – eine Art
Vorbild. Man könnte Machine Learning somit auch als eine besondere Art der
Mensch-Maschinen Interaktion bezeichnen.
Wie funktioniert Machine Learning?
 Machine Learning basiert auf der Annahme, dass
man ein Problem nicht dadurch löst, dass es in
all seinen Details beschrieben und mit einer
dedizierten Lösung beantwortet wird.
 Stattdessen erstellt man ein Modell und füttert
dieses mit einer Menge an Beispieldaten. Der
Algorithmus zur spezifischen Problemlösung
besteht dann darin, eine gegebene Situation auf
Ähnlichkeiten, zu den geladenen Daten hin, zu
prüfen und die Lösung basierend auf „erlerntem“
Wissen zu ermitteln.
Neuronale Netze und Machine Learning
 Technisch wird Machine oder Deep Learning durch neuronale Netze
realisiert.
 Neuronale Netze sind eine (an das menschliche Gehirn angelehnte)
Technologie, mit der ein Computerprogramm dazu gebracht wird, aus Daten
zu lernen.
 In einem neuronalen Netzwerk kommunizieren Software-Neuronen über
Nachrichten miteinander und arbeiten gemeinsam an der Problemlösung.
 Beim wiederholten Durchspielen einer Problemstellung werden erfolgreiche
Verbindungen gestärkt und weniger erfolgreiche gekappt.
 Diese Wiederholungen machen das Netzwerk immer besser; genauso, wie
Wiederholungen im Gehirn für besseres, tieferes Lernen sorgen.
Welche Typen von Machine Learning gibt es?
 Beim Supervised Learning werden Algorithmen anhand von bestimmten
Beispielen trainiert. Das Ziel ist es, die Lösung für weitere, ähnliche
Probleme, durch die Generalisierung der gegebenen Situationen, zu finden.
Supervised Learning kann zum Beispiel bei der Aufdeckung von
Kreditkartenbetrug genutzt werden.
 Beim Unsupervised Learning werden Algorithmen mit beliebigen Beispielen
trainiert. Hier sollen aus einer Vielzahl an Problemen und Lösungen
gleichartige Strukturen (so genannte Cluster) gefunden werden, damit das
Modell bei neuen, unbekannten Problemstellungen ebenfalls ein passendes
Lösungsmodell nutzt.
 Beim sogenannten Semi-Supervised Learning wird das Supervised und
Unsupervised Learning miteinander kombiniert.
Welche Methoden werden bei ML genutzt?
 Transduction: Wenn Machine Learning auf dieser Methode
beruht, wird versucht, neue Lösungen auf der Basis von
spezifischen Fällen zu finden.
 Learning to learn: Diese Methode ist sehr spannend, weil die
Algorithmen dabei Ableitungen aus bereits gemachten
Erfahrungen ziehen.
 Developmental learning: Diese Stufe des Machine Learnings
setzt auf das nahezu selbständige Lernen von Software durch
den Austausch mit menschlichen „Lehrern“.
Woher holen wir die notwendigen Daten für ML?
 Die Grundlage einer maschinellen Lernkomponente ist ein Netz, welches mit
verschiedenen mathematischen Modellen Regression und Klassifikation auf
Daten anwendet, um etwa Wahrscheinlichkeiten zu berechnen.
 Das heißt, man benötigt Fachwissen über die Domäne, in der das Netz
arbeiten soll.
 Dieses Expertenwissen ist häufig schwer zu bekommen und auch nicht
immer leicht zu verstehen – man denke an einen Arzt, der einem zusätzliche
Informationen zu einer Diagnose geben soll.
 Dies nennt man „Knowledge Akquisition Bottleneck“.
Wie kommt man dann zu seinem Netz?
 Daten sind häufig leichter und auch billiger als Experten zu beschaffen.
 Mittels „Developmental Learning“ wird das Netz aus Daten gebildet, statt das
wir es aus den Informationen, die uns von einem Experten gegeben werden,
manuell definieren müssen.
 Das heißt, schon die Erzeugung des Netzes ist maschinelles Lernen.
Was ist Deep Learning?
 Spezielle Variante von Machine Learning, bei dem mehrere Schichten
definiert und jeweils für einen Teilbereich der Problemstellung genutzt
werden.
 Deep Learning zerteilt also ein großes, komplexes Problem in viele kleinere,
"einfachere“, die von den einzelnen Schichten bearbeitet werden.
 Die Einzellösungen werden am Ende wieder zusammengeführt, um die
Gesamtlösung zu ermitteln.
 Deep Learning eignet sich, gerade durch die System-Immanente Zerlegung
der Problemstellung in Teilaspekte, besonders gut zur Abbildung in einem
Agentensystem.
Link: http://playground.tensorflow.org
Durch wiederholte Durchlaufen wird das neuronalen Netz immer besser
auf die Problemstellung trainiert und die Fehlerquote (Test Loss) wird
immer geringer. Nach 2643 Durchläufen ist sie hier bei 0 angekommen.
Wie integriere ich ML in meine Anwendung?
 Einbindung von deeplearning4j
 Multilayer-Konfiguration
definieren
 Implementierung der
NeuronalNetwork Class
 Modell definieren
 Trainingsdaten laden
 Klassifikation anwenden
Wie integriere ich ML in meine Anwendung?
Quelle: https://deeplearning4j.org/quickstart
Schön, wenn man eine Greenfield-Implementierung anstrebt.
Was aber, wenn man eine bestehende Anwendung hat?
(Build) Monolithen und die neue Welt!
Maschinelles Lernen ist kein One-Shot Projekt. Es erfordert viele Iterationen und
gemeinhin eine neue, veränderte Software-Architektur. In den seltensten Fällen
erlaubt die Software-Architektur einer bestehenden Anwendung die simple
Integration neuer Klassen für ML. Aber selbst wenn, dann bleibt die Tatsache,
dass man sein Modell immer wieder anpassen und neu deployen möchte oder
muss. Aus diesen Gründen sollten die lernende Komponente separiert von der
bestehenden Prozess-Anwendung werden.
„ML as a Service“ oder OnPremise mit DevOps
 Es gibt eine Reihe von Anbietern, die Machine Learning als Service anbieten
– Amazon Machine Learning etwa.
 Hierbei wird die Infrastruktur zur Verarbeitung der Massendaten auf
leistungsfähigen Cloud-Umgebungen delegiert.
 Über APIs können bestehende Anwendungen mit diesen Services
kommunizieren.
 Will man ML wirklich selbst „betreiben“ oder implementieren, so kommt man
an einen DevOps Ansatz mit automatisierten Build-Pipelines und potentiell
bis zu hunderten von Deployments pro Tag (oder noch mehr) nicht herum.
Was sollte man beachten?
 Was wollen Sie durch eine Automatisierung der Prozesse und
insbesondere der automatischen Entscheidungsfindung
optimieren?
 Wie tief sollen Automatisierung und datengetriebene
Entscheidungsfindung in Ihre Prozesse eingreifen können?
 Welche Möglichkeiten des Monitorings, bzw. der
nachgelagerten oder auch integrierten Prüfung und ggf.
Übersteuerungen durch Anwender soll es bei erlernten,
automatisierten Entscheidungen durch die ML Komponente
geben?
Fazit
 Machine Learning ist eines der vielversprechendsten Themen im IT-Umfeld.
 Die Möglichkeiten und Fähigkeiten von künstlicher Intelligenz steigen
exponentiell und werden unsere heutigen Vorstellungen jederzeit wieder und
immer schneller sprengen.
 Um Machine Learning erfolgreich nutzen zu können, sind große
Datenmengen unabdingbar. Sie werden für das Training benötigt.
 Die Integration von ML in bestehende (Legacy)-Anwendungen kann über
Cloud-Anbieter, in Form von Services, vorgenommen werden.
 Eine eigene, „lokale“ Maschinenintelligenz zu schaffen, ist ein
hochkomplexes Unterfangen, welches nicht nur Entwickler, sondern auch
den Operations Bereich eines Unternehmens fordert.
Mobil:
E-Mail:
COMLINE Computer + Softwarelösungen AG
Leverkusenstr. 54/I
22761 Hamburg
www.comlineag.de
Vielen Dank für Ihre Aufmerksamkeit.
Christian Günther
Principal Solution Architect
+49 1511 22 40 942
christian.guenther@comlineag.de

Más contenido relacionado

Similar a Machine Learning - Eine Einführung der COMLINE Business Consulting

DWX 2019 Session. Machine Learning in .NET
DWX 2019 Session. Machine Learning in .NETDWX 2019 Session. Machine Learning in .NET
DWX 2019 Session. Machine Learning in .NETMykola Dobrochynskyy
 
TFF2023 - Navigating Tourism Data Nexus
TFF2023 - Navigating Tourism Data NexusTFF2023 - Navigating Tourism Data Nexus
TFF2023 - Navigating Tourism Data NexusTourismFastForward
 
Netzwerke wichtiger Bestandteil zur Nutzung der kollektiven Intelligenz
Netzwerke wichtiger Bestandteil zur Nutzung der kollektiven IntelligenzNetzwerke wichtiger Bestandteil zur Nutzung der kollektiven Intelligenz
Netzwerke wichtiger Bestandteil zur Nutzung der kollektiven IntelligenzNETBAES
 
Künstliche Intelligenz in der Rekrutierung
Künstliche Intelligenz in der RekrutierungKünstliche Intelligenz in der Rekrutierung
Künstliche Intelligenz in der RekrutierungHays
 
Was die Cloud mit einem brennenden Haus zu tun hat
Was die Cloud mit einem brennenden Haus zu tun hatWas die Cloud mit einem brennenden Haus zu tun hat
Was die Cloud mit einem brennenden Haus zu tun hatNane Kratzke
 
Präsentation CENDOO Butler
Präsentation CENDOO ButlerPräsentation CENDOO Butler
Präsentation CENDOO ButlerCENDOO AG
 
KI in dreizehn slides für Austrian Senior Experts
KI in dreizehn slides für Austrian Senior ExpertsKI in dreizehn slides für Austrian Senior Experts
KI in dreizehn slides für Austrian Senior ExpertsMichael Klemen
 
Machine Learning mit TensorFlow.js
Machine Learning mit TensorFlow.jsMachine Learning mit TensorFlow.js
Machine Learning mit TensorFlow.jsOPEN KNOWLEDGE GmbH
 
Cognitive Computing & Schule / re:publica2015 / @markusmathar
Cognitive Computing & Schule / re:publica2015 / @markusmatharCognitive Computing & Schule / re:publica2015 / @markusmathar
Cognitive Computing & Schule / re:publica2015 / @markusmatharMarkus Mathar
 
Informatik in der Volksschule: Was - Warum - Wie?
Informatik in der Volksschule: Was - Warum - Wie?Informatik in der Volksschule: Was - Warum - Wie?
Informatik in der Volksschule: Was - Warum - Wie?Beat Döbeli Honegger
 
Megatrends zum Thema Zukunft der Arbeit
Megatrends zum Thema Zukunft der ArbeitMegatrends zum Thema Zukunft der Arbeit
Megatrends zum Thema Zukunft der Arbeit42medien
 
Arbeit 4.0: Megatrends digitaler Arbeit der Zukunft - 25 Thesen
Arbeit 4.0: Megatrends digitaler Arbeit der Zukunft - 25 ThesenArbeit 4.0: Megatrends digitaler Arbeit der Zukunft - 25 Thesen
Arbeit 4.0: Megatrends digitaler Arbeit der Zukunft - 25 ThesenDanielPoetzsch
 
Was ist Künstliche Intelligenz?
Was ist Künstliche Intelligenz?Was ist Künstliche Intelligenz?
Was ist Künstliche Intelligenz?Research Impulses
 
Webinale 2011 - Das mobile Internet im Jahr 2021
Webinale 2011 - Das mobile Internet im Jahr 2021Webinale 2011 - Das mobile Internet im Jahr 2021
Webinale 2011 - Das mobile Internet im Jahr 2021Matthias C. Schroeder
 
Expert system webinar 29.6.2017 cogito und deep learning
Expert system webinar  29.6.2017   cogito und deep learningExpert system webinar  29.6.2017   cogito und deep learning
Expert system webinar 29.6.2017 cogito und deep learningStefan Geißler
 
Blogparade: Schlaueres Arbeiten durch Cognitive Computing 2016 (Das E-Book)
Blogparade: Schlaueres Arbeiten durch Cognitive Computing 2016 (Das E-Book)Blogparade: Schlaueres Arbeiten durch Cognitive Computing 2016 (Das E-Book)
Blogparade: Schlaueres Arbeiten durch Cognitive Computing 2016 (Das E-Book)Stefan Pfeiffer
 
Pruefung iu k-2009
Pruefung iu k-2009Pruefung iu k-2009
Pruefung iu k-2009skoller15
 
Algorithmen Impulsvortrag Seminar "Neue Medien - Neue Theorien und Methoden?"
Algorithmen Impulsvortrag Seminar "Neue Medien - Neue Theorien und Methoden?"Algorithmen Impulsvortrag Seminar "Neue Medien - Neue Theorien und Methoden?"
Algorithmen Impulsvortrag Seminar "Neue Medien - Neue Theorien und Methoden?"katrinetzrodt
 
Martin Lindner: Qualifizierung 2.0 - Weblernen und Social Business Design
Martin Lindner: Qualifizierung 2.0 - Weblernen und Social Business DesignMartin Lindner: Qualifizierung 2.0 - Weblernen und Social Business Design
Martin Lindner: Qualifizierung 2.0 - Weblernen und Social Business Designlernet
 

Similar a Machine Learning - Eine Einführung der COMLINE Business Consulting (20)

DWX 2019 Session. Machine Learning in .NET
DWX 2019 Session. Machine Learning in .NETDWX 2019 Session. Machine Learning in .NET
DWX 2019 Session. Machine Learning in .NET
 
TFF2023 - Navigating Tourism Data Nexus
TFF2023 - Navigating Tourism Data NexusTFF2023 - Navigating Tourism Data Nexus
TFF2023 - Navigating Tourism Data Nexus
 
f/21 Quarterly Q3|2017
f/21 Quarterly Q3|2017 f/21 Quarterly Q3|2017
f/21 Quarterly Q3|2017
 
Netzwerke wichtiger Bestandteil zur Nutzung der kollektiven Intelligenz
Netzwerke wichtiger Bestandteil zur Nutzung der kollektiven IntelligenzNetzwerke wichtiger Bestandteil zur Nutzung der kollektiven Intelligenz
Netzwerke wichtiger Bestandteil zur Nutzung der kollektiven Intelligenz
 
Künstliche Intelligenz in der Rekrutierung
Künstliche Intelligenz in der RekrutierungKünstliche Intelligenz in der Rekrutierung
Künstliche Intelligenz in der Rekrutierung
 
Was die Cloud mit einem brennenden Haus zu tun hat
Was die Cloud mit einem brennenden Haus zu tun hatWas die Cloud mit einem brennenden Haus zu tun hat
Was die Cloud mit einem brennenden Haus zu tun hat
 
Präsentation CENDOO Butler
Präsentation CENDOO ButlerPräsentation CENDOO Butler
Präsentation CENDOO Butler
 
KI in dreizehn slides für Austrian Senior Experts
KI in dreizehn slides für Austrian Senior ExpertsKI in dreizehn slides für Austrian Senior Experts
KI in dreizehn slides für Austrian Senior Experts
 
Machine Learning mit TensorFlow.js
Machine Learning mit TensorFlow.jsMachine Learning mit TensorFlow.js
Machine Learning mit TensorFlow.js
 
Cognitive Computing & Schule / re:publica2015 / @markusmathar
Cognitive Computing & Schule / re:publica2015 / @markusmatharCognitive Computing & Schule / re:publica2015 / @markusmathar
Cognitive Computing & Schule / re:publica2015 / @markusmathar
 
Informatik in der Volksschule: Was - Warum - Wie?
Informatik in der Volksschule: Was - Warum - Wie?Informatik in der Volksschule: Was - Warum - Wie?
Informatik in der Volksschule: Was - Warum - Wie?
 
Megatrends zum Thema Zukunft der Arbeit
Megatrends zum Thema Zukunft der ArbeitMegatrends zum Thema Zukunft der Arbeit
Megatrends zum Thema Zukunft der Arbeit
 
Arbeit 4.0: Megatrends digitaler Arbeit der Zukunft - 25 Thesen
Arbeit 4.0: Megatrends digitaler Arbeit der Zukunft - 25 ThesenArbeit 4.0: Megatrends digitaler Arbeit der Zukunft - 25 Thesen
Arbeit 4.0: Megatrends digitaler Arbeit der Zukunft - 25 Thesen
 
Was ist Künstliche Intelligenz?
Was ist Künstliche Intelligenz?Was ist Künstliche Intelligenz?
Was ist Künstliche Intelligenz?
 
Webinale 2011 - Das mobile Internet im Jahr 2021
Webinale 2011 - Das mobile Internet im Jahr 2021Webinale 2011 - Das mobile Internet im Jahr 2021
Webinale 2011 - Das mobile Internet im Jahr 2021
 
Expert system webinar 29.6.2017 cogito und deep learning
Expert system webinar  29.6.2017   cogito und deep learningExpert system webinar  29.6.2017   cogito und deep learning
Expert system webinar 29.6.2017 cogito und deep learning
 
Blogparade: Schlaueres Arbeiten durch Cognitive Computing 2016 (Das E-Book)
Blogparade: Schlaueres Arbeiten durch Cognitive Computing 2016 (Das E-Book)Blogparade: Schlaueres Arbeiten durch Cognitive Computing 2016 (Das E-Book)
Blogparade: Schlaueres Arbeiten durch Cognitive Computing 2016 (Das E-Book)
 
Pruefung iu k-2009
Pruefung iu k-2009Pruefung iu k-2009
Pruefung iu k-2009
 
Algorithmen Impulsvortrag Seminar "Neue Medien - Neue Theorien und Methoden?"
Algorithmen Impulsvortrag Seminar "Neue Medien - Neue Theorien und Methoden?"Algorithmen Impulsvortrag Seminar "Neue Medien - Neue Theorien und Methoden?"
Algorithmen Impulsvortrag Seminar "Neue Medien - Neue Theorien und Methoden?"
 
Martin Lindner: Qualifizierung 2.0 - Weblernen und Social Business Design
Martin Lindner: Qualifizierung 2.0 - Weblernen und Social Business DesignMartin Lindner: Qualifizierung 2.0 - Weblernen und Social Business Design
Martin Lindner: Qualifizierung 2.0 - Weblernen und Social Business Design
 

Machine Learning - Eine Einführung der COMLINE Business Consulting

  • 1. T I T E L U N T E R T I T E L O R T / D A T U M Machine Learning Algorithmen, Modelle und mehr Hannover, 03.07.2017
  • 2. Worüber werden wir sprechen? Modelle Algorithmen Maschinelles Lernen
  • 3. Mit künstlicher Intelligenz ist alles möglich Bildquelle: stern.de Irgendwann werden wir nicht mehr gezwungen sein, selbst zu fahren, sondern lassen uns von unserem Auto chauffieren. So das Versprechen, welches heutzutage als erstes genannt wird, wenn jemand über maschinelles Lernen und künstliche Intelligenz spricht. Bis es soweit ist, vergeht sicherlich noch viel Zeit. Zeit die aber nicht der Technologie, sondern vor allem uns Menschen geschuldet ist. Was hinter maschinellem Lernen aber schon heute steckt, sollen die folgenden Slides verdeutlichen.
  • 4. Die erste KI war ein Betrug
  • 5. 1950 – Alan Turing Der britische Mathematiker Alan Turing stellt eine Methode vor, mit deren Hilfe man menschliche und künstliche Intelligenz voneinander unterscheiden kann. Via Tastatur und Bildschirm sollen ein Computer und ein Mensch mit einem Tester kommunizieren. Kann dieser nicht eindeutig entscheiden, wer von beiden Mensch und wer Maschine ist, hat der Computer den Test bestanden.
  • 6. 1966 – Eliza, der erste Chatbot ELIZA nennt sich ein kleines Computerprogramm, das der deutsch- amerikanische Informatiker Joseph Weizenbaum geschrieben hat. Es besteht lediglich aus ein paar Dutzend Zeilen Programmcode, und es kann nicht viel. ELIZA durchsucht die Tastatureingabe des Nutzers nach Schlüsselworten und spuckt dann eine vermeintlich passende Erwiderung aus.
  • 7. 1997 – Kasparov in Schach geschlagen
  • 8. 2011 – IBM Watson gewinnt Jeopardy
  • 9. 2016 – Google AlphaGo schlägt Lee Sedol
  • 10. Historische Entwicklung der KI-Forschung Heuristische Systeme Mainframe Bis 1970 Wissens- basierte Systeme Supercomputer Bis 1990 Intelligenzgrad Lernende Systeme Agenten Bis 2010 Kognitive Systeme GPUs Ab 2010
  • 11. Warum geht auf einmal alles so schnell? Heuristische Systeme Mainframe Bis 1970 Wissens- basierte Systeme Supercomputer Bis 1990 Intelligenzgrad Lernende Systeme Agenten Bis 2010 Kognitive Systeme GPUs Ab 2010 Wir gehen immer davon aus, dass sich der Fortschritt im Bereich der künstlichen Intelligenz linear weiterentwickelt. In Wirklichkeit folgt die Entwicklung künstlicher Intelligenz aber einer Exponentialfunktion. Exponentielles Wachstum ist für das menschliche Gehirn schwer nachzuvollziehen – man denke an das Reiskorn auf dem Schachbrett.
  • 12. Exponentielles „lernen“ Cloud Computing IoT Big Data Machine Learning Deep Learning Pattern Recognition Convolutional Neural Networks Agenten- systeme Genetic AlgorithmsNeural Networks Semantic Nets Data Mining Bis 1970 Bis 1990 Bis 2010 Ab 2010 Wir gehen immer davon aus, dass sich der Fortschritt im Bereich der künstlichen Intelligenz linear weiterentwickelt. In Wirklichkeit folgt die Entwicklung künstlicher Intelligenz aber einer Exponentialfunktion. Exponentielles Wachstum ist für das menschliche Gehirn schwer nachzuvollziehen – man denke an das Reiskorn auf dem Schachbrett.
  • 13. Die COMLINE AG Gesamtzusammenhang – Vom Modell zur Software
  • 14. Was hat sich geändert? Früher versuchten Programmierer, Software zu schreiben, die alle möglichen Optionen und denkbaren Fälle abdeckten. Aufgrund der inhärenten Komplexität eines solchen Ansatzes, gelingt dies nur in einem Umfeld mit eng umrissenen und festen Regeln – Beispiel Schach. Heutige Ansätze basieren darauf, ein Modell zu schaffen und dieses mit einer immensen Menge an Daten zu füttern, damit das Modell, lernt auf neue und nicht beschriebene Fälle zu reagieren. Die Algorithmen beschreiben also nicht mehr en Detail die Abfolge und Beziehungen von Fällen und der adäquaten Reaktion darauf, sondern schaffen einen Rahmen (Framework), um zu lernen – AlphaGo hat das Spiel Go gelernt nicht einprogrammiert bekommen.
  • 15. Hier steht Mustertext. Bitte limitiere den Text auf 3 Sätze. Du kannst andernfalls mehrere Folien verwenden. Der Kasten kann grau oder dunkelgrau sein. Was ist Machine Learning? Mit Machine Learning (zu Deutsch: maschinelles Lernen) wird ein spezieller Ansatz aus dem Bereich der künstlichen Intelligenz, zur Lösung von Problemen bezeichnet. Die Idee ist, Computerprogramme zu entwerfen welche mit Hilfe von modellbasierten, flexiblen Algorithmen eigenständig Lösungen für neue und unbekannte Probleme finden können. Diese Art der algorithmischen Berechnung von Wahrscheinlichkeiten benötigt, zumindest heutzutage, immer noch das Handeln von Menschen – eine Art Vorbild. Man könnte Machine Learning somit auch als eine besondere Art der Mensch-Maschinen Interaktion bezeichnen.
  • 16. Wie funktioniert Machine Learning?  Machine Learning basiert auf der Annahme, dass man ein Problem nicht dadurch löst, dass es in all seinen Details beschrieben und mit einer dedizierten Lösung beantwortet wird.  Stattdessen erstellt man ein Modell und füttert dieses mit einer Menge an Beispieldaten. Der Algorithmus zur spezifischen Problemlösung besteht dann darin, eine gegebene Situation auf Ähnlichkeiten, zu den geladenen Daten hin, zu prüfen und die Lösung basierend auf „erlerntem“ Wissen zu ermitteln.
  • 17. Neuronale Netze und Machine Learning  Technisch wird Machine oder Deep Learning durch neuronale Netze realisiert.  Neuronale Netze sind eine (an das menschliche Gehirn angelehnte) Technologie, mit der ein Computerprogramm dazu gebracht wird, aus Daten zu lernen.  In einem neuronalen Netzwerk kommunizieren Software-Neuronen über Nachrichten miteinander und arbeiten gemeinsam an der Problemlösung.  Beim wiederholten Durchspielen einer Problemstellung werden erfolgreiche Verbindungen gestärkt und weniger erfolgreiche gekappt.  Diese Wiederholungen machen das Netzwerk immer besser; genauso, wie Wiederholungen im Gehirn für besseres, tieferes Lernen sorgen.
  • 18. Welche Typen von Machine Learning gibt es?  Beim Supervised Learning werden Algorithmen anhand von bestimmten Beispielen trainiert. Das Ziel ist es, die Lösung für weitere, ähnliche Probleme, durch die Generalisierung der gegebenen Situationen, zu finden. Supervised Learning kann zum Beispiel bei der Aufdeckung von Kreditkartenbetrug genutzt werden.  Beim Unsupervised Learning werden Algorithmen mit beliebigen Beispielen trainiert. Hier sollen aus einer Vielzahl an Problemen und Lösungen gleichartige Strukturen (so genannte Cluster) gefunden werden, damit das Modell bei neuen, unbekannten Problemstellungen ebenfalls ein passendes Lösungsmodell nutzt.  Beim sogenannten Semi-Supervised Learning wird das Supervised und Unsupervised Learning miteinander kombiniert.
  • 19. Welche Methoden werden bei ML genutzt?  Transduction: Wenn Machine Learning auf dieser Methode beruht, wird versucht, neue Lösungen auf der Basis von spezifischen Fällen zu finden.  Learning to learn: Diese Methode ist sehr spannend, weil die Algorithmen dabei Ableitungen aus bereits gemachten Erfahrungen ziehen.  Developmental learning: Diese Stufe des Machine Learnings setzt auf das nahezu selbständige Lernen von Software durch den Austausch mit menschlichen „Lehrern“.
  • 20. Woher holen wir die notwendigen Daten für ML?  Die Grundlage einer maschinellen Lernkomponente ist ein Netz, welches mit verschiedenen mathematischen Modellen Regression und Klassifikation auf Daten anwendet, um etwa Wahrscheinlichkeiten zu berechnen.  Das heißt, man benötigt Fachwissen über die Domäne, in der das Netz arbeiten soll.  Dieses Expertenwissen ist häufig schwer zu bekommen und auch nicht immer leicht zu verstehen – man denke an einen Arzt, der einem zusätzliche Informationen zu einer Diagnose geben soll.  Dies nennt man „Knowledge Akquisition Bottleneck“.
  • 21. Wie kommt man dann zu seinem Netz?  Daten sind häufig leichter und auch billiger als Experten zu beschaffen.  Mittels „Developmental Learning“ wird das Netz aus Daten gebildet, statt das wir es aus den Informationen, die uns von einem Experten gegeben werden, manuell definieren müssen.  Das heißt, schon die Erzeugung des Netzes ist maschinelles Lernen.
  • 22. Was ist Deep Learning?  Spezielle Variante von Machine Learning, bei dem mehrere Schichten definiert und jeweils für einen Teilbereich der Problemstellung genutzt werden.  Deep Learning zerteilt also ein großes, komplexes Problem in viele kleinere, "einfachere“, die von den einzelnen Schichten bearbeitet werden.  Die Einzellösungen werden am Ende wieder zusammengeführt, um die Gesamtlösung zu ermitteln.  Deep Learning eignet sich, gerade durch die System-Immanente Zerlegung der Problemstellung in Teilaspekte, besonders gut zur Abbildung in einem Agentensystem.
  • 24. Durch wiederholte Durchlaufen wird das neuronalen Netz immer besser auf die Problemstellung trainiert und die Fehlerquote (Test Loss) wird immer geringer. Nach 2643 Durchläufen ist sie hier bei 0 angekommen.
  • 25. Wie integriere ich ML in meine Anwendung?  Einbindung von deeplearning4j  Multilayer-Konfiguration definieren  Implementierung der NeuronalNetwork Class  Modell definieren  Trainingsdaten laden  Klassifikation anwenden
  • 26. Wie integriere ich ML in meine Anwendung? Quelle: https://deeplearning4j.org/quickstart Schön, wenn man eine Greenfield-Implementierung anstrebt. Was aber, wenn man eine bestehende Anwendung hat?
  • 27. (Build) Monolithen und die neue Welt! Maschinelles Lernen ist kein One-Shot Projekt. Es erfordert viele Iterationen und gemeinhin eine neue, veränderte Software-Architektur. In den seltensten Fällen erlaubt die Software-Architektur einer bestehenden Anwendung die simple Integration neuer Klassen für ML. Aber selbst wenn, dann bleibt die Tatsache, dass man sein Modell immer wieder anpassen und neu deployen möchte oder muss. Aus diesen Gründen sollten die lernende Komponente separiert von der bestehenden Prozess-Anwendung werden.
  • 28. „ML as a Service“ oder OnPremise mit DevOps  Es gibt eine Reihe von Anbietern, die Machine Learning als Service anbieten – Amazon Machine Learning etwa.  Hierbei wird die Infrastruktur zur Verarbeitung der Massendaten auf leistungsfähigen Cloud-Umgebungen delegiert.  Über APIs können bestehende Anwendungen mit diesen Services kommunizieren.  Will man ML wirklich selbst „betreiben“ oder implementieren, so kommt man an einen DevOps Ansatz mit automatisierten Build-Pipelines und potentiell bis zu hunderten von Deployments pro Tag (oder noch mehr) nicht herum.
  • 29. Was sollte man beachten?  Was wollen Sie durch eine Automatisierung der Prozesse und insbesondere der automatischen Entscheidungsfindung optimieren?  Wie tief sollen Automatisierung und datengetriebene Entscheidungsfindung in Ihre Prozesse eingreifen können?  Welche Möglichkeiten des Monitorings, bzw. der nachgelagerten oder auch integrierten Prüfung und ggf. Übersteuerungen durch Anwender soll es bei erlernten, automatisierten Entscheidungen durch die ML Komponente geben?
  • 30. Fazit  Machine Learning ist eines der vielversprechendsten Themen im IT-Umfeld.  Die Möglichkeiten und Fähigkeiten von künstlicher Intelligenz steigen exponentiell und werden unsere heutigen Vorstellungen jederzeit wieder und immer schneller sprengen.  Um Machine Learning erfolgreich nutzen zu können, sind große Datenmengen unabdingbar. Sie werden für das Training benötigt.  Die Integration von ML in bestehende (Legacy)-Anwendungen kann über Cloud-Anbieter, in Form von Services, vorgenommen werden.  Eine eigene, „lokale“ Maschinenintelligenz zu schaffen, ist ein hochkomplexes Unterfangen, welches nicht nur Entwickler, sondern auch den Operations Bereich eines Unternehmens fordert.
  • 31. Mobil: E-Mail: COMLINE Computer + Softwarelösungen AG Leverkusenstr. 54/I 22761 Hamburg www.comlineag.de Vielen Dank für Ihre Aufmerksamkeit. Christian Günther Principal Solution Architect +49 1511 22 40 942 christian.guenther@comlineag.de

Notas del editor

  1. 1769 Der erste Fall von künstlicher Intelligenz ist ein Betrug. Der österreichisch-ungarische Mechaniker Wolfgang von Kempelen geht mit einem Schachroboter auf Tournee und verblüfft mit diesem Schränkchen voller Feinmechanik Volk und Fürsten allerorten. Die “Schachtürke” genannte Maschine beherrscht das Spiel erstaunlich gut und schlägt sogar hochklassige Turnierspieler. Erst Jahrzehnte später kommt heraus, dass sich in der Maschine ein Mensch verbirgt, der mittels Hebeln und Zahnrädern die Figuren setzt.
  2. Es ist eine Reihe von Argumenten vorgebracht worden, die den Turing-Test als ungeeignet zur Feststellung von Intelligenz ansehen: Der Turing-Test prüfe nur auf Funktionalität, nicht auf das Vorhandensein von Intension oder eines Bewusstseins. Obwohl es viele Kritiker an dem von Turing vorgeschlagenen Verfahren gibt, erfreut er sich bis heute, auch und vor allem in Filmen und Büchern, aber auch in der Computerwissenschaft, großer Beliebtheit. Turing vermutete, dass es bis zum Jahr 2000 möglich sein werde, Computer so zu programmieren, dass der durchschnittliche Anwender eine höchstens 70-prozentige Chance habe, Mensch und Maschine erfolgreich zu identifizieren, nachdem er fünf Minuten mit ihnen „gesprochen“ hat. Dass sich diese Vorhersage bisher nicht erfüllte, sehen viele als einen Beleg für die Unterschätzung der Komplexität natürlicher Intelligenz.
  3. Wikipedia: ELIZA ist ein 1966 von Joseph Weizenbaum entwickeltes Computerprogramm, das die Möglichkeiten der Kommunikation zwischen einem Menschen und einem Computer über natürliche Sprache aufzeigen sollte. Den Namen ELIZA wählte Weizenbaum in Anlehnung an das Schauspiel Pygmalion von George Bernard Shaw. Das Programm kann über Skripte verschiedene Gesprächspartner simulieren. Bekannt geworden ist es für die oberflächliche Simulation eines Psychotherapeuten, der die non-direktiven Methoden der klientenzentrierten Psychotherapie nach Carl Rogers verwendet. Weizenbaum schrieb das Programm in MAD-SLIP für eine IBM 7094, die das Time-Sharing-System CTSS des Massachusetts Institute of Technology verwendete. ELIZA kann als frühe Umsetzung des Turing-Tests gesehen werden. Diesen hätte es jedoch nicht bestanden, da ein Benutzer recht einfach herausfinden kann, dass er mit einer Maschine kommuniziert.
  4. Quelle: Die Welt https://www.welt.de/print-welt/article652666/Computer-schlaegt-Kasparow.html Zum erstenmal hat der seit zehn Jahren amtierende Schachweltmeister Garri Kasparow, den viele für den stärksten Spieler aller Zeiten halten, eine normale Turnierpartie gegen einen Schachcomputer verloren. In Philadelphia mußte der Champion in der ersten von sechs Partien eines Zweikampfs gegen das auf einem IBM-Großrechner laufende Schachprogramm "Deep Blue" nach 37 Zügen die Waffen strecken. Eine Schnellpartie (30 Minuten für die gesamte Partie) gegen das PC-Programm "Chess Genius 3" hatte der 32jährige Weltmeister bereits im August 1994 in London sensationell verloren. In zwei Wettkämpfen von je zwei Partien gelang es dem in Moskau lebenden Weltmeister dann jedoch mit etwas Glück, die Ehre des Menschen wiederherzustellen. Daß der beste Schachspieler der Welt jedoch unter normalen Turnierbedingungen (Bedenkzeit 40 Züge in zwei Stunden) und bei ausreichender Vorbereitung gegen einen Schachcomputer verlieren könne, hielt der sehr selbstbewußte Kasparow bislang auf absehbare Zeit für unwahrscheinlich. Eine solche Maschine, hat er kürzlich ein wenig sarkastisch gesagt, könne dann wohl auch Weltmeister der Künste und Wissenschaften werden.
  5. Quelle Wikipedia: https://de.wikipedia.org/wiki/Watson_(Künstliche_Intelligenz) Watson ist ein Computerprogramm aus dem Bereich der Künstlichen Intelligenz. Es wurde von IBM entwickelt, um Antworten auf Fragen zu geben, die in digitaler Form in natürlicher Sprache eingegeben werden. Das nach Thomas J. Watson, einem der ersten Präsidenten von IBM, benannte Programm wurde als Teil des DeepQA-Forschungsprojektes entwickelt. Zur Demonstration seiner Leistungsfähigkeit konkurrierte das Programm in drei vom 14. bis 16. Februar 2011 ausgestrahlten Folgen der Quizsendung Jeopardy! mit zwei menschlichen Gegnern, die in der Show zuvor Rekordsummen gewonnen hatten. Die Partie, für die ein Preisgeld von einer Million Dollar ausgelobt war, wurde in den Medien daher mit dem Duell des Schachweltmeisters Garri Kasparow gegen den Computer Deep Blue verglichen. Das System gewann das Spiel mit einem Endstand von $77.147 gegenüber den $24.000 bzw. $21.600 seiner menschlichen Konkurrenten. Im Januar 2017 ersetzte eine japanische Versicherung mehr als 30 Mitarbeiter durch die Watson-Plattform. Die KI soll Namen und Daten der Versicherten sowie deren medizinische Vorgeschichte prüfen und Verletzungen bewerten.
  6. Quelle Wikipedia: https://de.wikipedia.org/wiki/AlphaGo_gegen_Lee_Sedol AlphaGo gegen Lee Sedol war ein Go-Turnier zwischen Mensch und Maschine: Vom 9. bis zum 15. März 2016 trat der als stärkster Go-Spieler der Welt geltende Südkoreaner Lee Sedol gegen ein Computerprogramm namens AlphaGo an und verlor vier der fünf Partien. Der Sieg der von der britischen Firma Google DeepMind entwickelten Software gilt als Meilenstein im Bereich des Maschinenlernens und der Künstlichen Intelligenz. Er wird mit der historischen ersten Wettkampfpartie zwischen dem damaligen Schachweltmeister Garri Kasparow und dem Schachcomputer Deep Blue verglichen, die der Weltmeister 1996 verlor. Das Turnier fand in Seoul statt und basierte auf der traditionellen chinesischen Bewertung mit einem 7,5-Punkte-Komi. Jeder Spieler hatte zwei Stunden Bedenkzeit, bevor die Partie dann in drei Mal eine Minute Byōyomi mündete. Alle Spiele wurden durch Aufgabe beendet. Das Preisgeld in Höhe von 1 Million US-Dollar spendete DeepMind Wohltätigkeits- und Go-Organisationen. Lee Sedol erhielt für die Teilnahme und den einen Sieg 170.000 Dollar. Nach dem Turnier verlieh die südkoreanische Go-Vereinigung AlphaGo den Rang des 9. Dan Professional. Zur Begründung hieß es, AlphaGo sei mit seiner Art des Spiels „fast in göttliche Bereiche“ vorgestoßen. Go ist wegen seiner deutlich höheren Komplexität nicht mit Schach zu vergleichen. Um, wie Schachprogramme es tun, die Suchbäume des Spiels mit Hilfe von Standardalgorithmen und deterministischen Routinen durchzurechnen, hätte Go alle verfügbaren Supercomputer und Rechenzeiten gesprengt. Der Ansatz, dem Spiel über selbst lernende Verfahren näher zu kommen, geht auf eine Idee des Mathematikers Irving John Good von 1965 zurück. Allerdings waren damals neuronale Netze, wie sie in AlphaGo agieren, noch nicht entwickelt, geschweige denn war der Selbstlernprozess durch das Studium von Millionen von Go-Partien damals anzustoßen. Erst im Oktober 2015 war abzusehen, dass die Methode zum Ziel führt. Damals schlug AlphaGo den europäischen Go-Meister Fan Hui.
  7. Bis 1970 basierten die Versuche eine „künstliche Intelligenz“ zu erschaffen, auf heuristischen Verfahren. Man glaubte ein GPS (Generelles Problemlösungs-System) bauen zu können. Da diese Ansätze scheiterten, begann man ab Anfang, Mitte der 70er Jahre bis in die späten 90er Jahre hinein so genannte Wissensbasierte System, zur spezifischen Lösungsfindung zu bauen. Kern dieser Ansätze war also einerseits nicht mehr die Entwicklung einer menschenähnlichen, allumfassenden Intelligenz, sondern der Aufbau von Wissensbasen zu einem dedizierten Problemfeld und der Entwicklung von Algorithmen, diese zu lösen. Ab 1990 bis ca. 2010, nahm der Gedanke von selbst-lernenden Systeme wieder Fahrt auf. Dies lag vor allem an deutlich verbesserter und kostengünstigerer Hardware, dem Aufkommen von Cloud Computing und der damit einhergehenden Möglichkeit extrem große und komplexe Daten zu verarbeiten. Bedingt hierdurch wurde der ursprüngliche Ansatz, eines einzelnen riesigen Computers aufgegeben und man konzentrierte sich auf verteilte Systeme. Ab 2010 kann man endgültig davon sprechen, dass die Forschungs- und Arbeitsgebiete der BigData Analyse und der KI konvergierten. Mit teilweise erstaunlichen Ergebnissen.