Künstliche Intelligenz, Data Science, Big Data, Machine Learning und Deep Learning sind beliebte Buzz-Words, die heutzutage jeder in der Tech-Welt zu benutzen scheint.
Dennoch gibt es bei vielen Menschen ein großes Missverständnis über die Bedeutung dieser Begriffe.
Im schlimmsten Fall könnte man denken, dass diese Begriffe dasselbe beschreiben – was schlichtweg falsch ist.
Es scheint auch so, dass jedes Unternehmen den Begriff Künstliche Intelligenz anders definiert.
Es fehlt leider an einer einheitlichen Definition von KI und insbesondere im Mittelstand weiß kaum jemand, für welches Problem sich welche Methode eignet. Die oben genannten Begriffe werden oft durcheinander benutzt, sodass sie wie austauschbare Schlagworte erscheinen.
Entgegen der weitverbreiteten Meinung beschreiben diese Begriffe nicht dasselbe. Es gibt hier konkrete Unterschiede. Aus diesem Grund möchte ich in diesem Artikel all die zuvor genannte Begriffe rund um KI genauestens erklären.
Was bedeutet Big Data?
Fangen wir mit Big Data an. Big Data bezieht sich auf die großen, vielfältigen Informationsmengen, die immer schneller wachsen. Es umfasst das Informationsvolumen, die Geschwindigkeit, mit der die Daten erstellt und gesammelt werden, sowie die Vielfalt oder den Umfang mit den erfassten Daten.

Big Data kann als unstrukturiert oder strukturiert eingestuft werden. Strukturierte Daten bestehen aus Informationen, die von der Organisation bereits in Datenbanken und Tabellen verwaltet wurden. Zum Beispiel Alter, Beruf, Geschlecht oder Herkunftsland einer Person. Aber auch Fotos und Videos. Diese Daten sind im meisten Fällen numerisch oder Text basiert.
Unstrukturierte Daten sind Informationen, die nicht organisiert sind und nicht in ein vorbestimmtes Modell oder Format fallen. Es enthält z.B. Daten aus Social-Media-Quellen. So wie etwa Likes auf Facebook oder Instagram. Oder Video Bewertungen auf YouTube.
Big Data kann für Unternehmen auf vielfältige Art und Weise genutzt werden. Datenanalysten untersuchen die Beziehung zwischen verschiedenen Datentypen, z. B. demografischen Daten und Kaufhistorie, um festzustellen, ob eine Korrelation besteht. Solche Bewertungen können unternehmensintern oder extern von einem Dritten durchgeführt werden, der sich auf die Verarbeitung von Big Data in verdauliche Formate konzentriert. Unternehmen nutzen häufig die Bewertung von Big Data durch solche Experten, um daraus umsetzbare Informationen zu gewinnen.
Nahezu jede Abteilung eines Unternehmens kann die Ergebnisse der Datenanalyse nutzen, von Personal und Technologie bis hin zu Marketing und Vertrieb. Ziel von Big Data ist es, die Geschwindigkeit zu erhöhen, mit der Produkte auf den Markt gebracht werden, den Zeit- und Ressourcenaufwand zu verringern, um die Marktakzeptanz und die Zielgruppen zu erreichen sowie die Kundenzufriedenheit sicherzustellen.

Also wie sie sehen hat Big Data auf dem ersten Blick wenig mit KI zu tun. Allerdings wie wir etwas später sehen werden. Sind diese enormen Datenmengen sozusagen der Treibstoff von modernen KI Techniken und eines der Hauptgründe dafür warum KI Lösungen von Jahr zu Jahr immer performanter werden.
Was bedeutet Data Science?
Ein weiterer Begriff, der oft im Zusammenhang mit KI gehört wird ist, ist der Begriff Data Science. Data Science beschreibt den Umgang mit Daten im Hinblick auf Gewinnung der Informationen aus diesen Daten.

Genauer formuliert Data Science ist das Gebiet, in dem Domain Expertise, Programmierkenntnisse und Kenntnisse in Mathematik und Statistik kombiniert werden, um aussagekräftige Erkenntnisse aus Daten zu gewinnen. Die Methoden des Informationsgewinns reichen von simplen statistischen Methoden, wie der deskriptiven Statistik oder explorativen Datenanalyse, wo es darum geht, die Daten zu visualisieren.
Am anderen Ende des Spektrums wenden Praktiker von Data Science, Machine Learning und Deep Learning Algorithmen auf Zahlen, Text, Bilder, Video, Audio und andere Datenformate an, um Systeme mit künstlicher Intelligenz (KI) zu erstellen, die Aufgaben ausführen, für die normalerweise ein Mensch notwendig ist. Diese Systeme liefern wiederum Erkenntnisse, die Analysten und Geschäftsanwender in einen konkreten Geschäftswert umsetzen können.
An dieser Stelle sehen wir den ersten Zusammenhang. Big Data wird im Bereich Data Science verwendet, um Erkenntnisse aus diesen Daten zu gewinnen.
Data Science wiederum wird mit KI Techniken realisiert, wie Machine Learning oder Deep Learning. Sie sehen also, dass während Big Data einfach nur große Datenmengen sind, sind Machine Learning und Deep Learning nichts weiter als Methoden, um Erkenntnisse aus diesen Daten zu gewinnen. Und die eigentliche Gewinnung der Erkenntnisse bezeichnet man als Data Science.
Viele Facetten der Künstlichen Intelligenz
Viele Unternehmen behaupten heutzutage, dass sie eine Art von „künstlicher Intelligenz“ (KI) in ihre Anwendungen oder Dienste integrieren.
Künstliche Intelligenz ist jedoch nur ein weiter gefasster Begriff, der Anwendungen beschreibt, bei denen eine Maschine „kognitive“ Funktionen nachahmt, die Menschen mit anderen menschlichen Gehirnen verbinden, wie „Lernen“ und „Problemlösung“.
Auf einer niedrigeren Ebene kann eine KI nur eine programmierte Regel sein, die die Maschine dazu bringt, sich in bestimmten Situationen auf eine bestimmte Weise zu verhalten. Künstliche Intelligenz kann also im Grunde nichts anderes sein als eine Aneinanderreihung von if-else-Anweisungen.
Eine if-else-Anweisung ist eine einfache Regel, die explizit von einem Menschen programmiert wurde. Nehmen wir ein sehr abstraktes, einfaches Beispiel eines Roboters, der sich auf einer Straße bewegt. Eine mögliche programmierte Regel für diesen Roboter könnte wie folgt aussehen:
Wenn man von künstlicher Intelligenz spricht, lohnt es sich stattdessen, nur zwei verschiedene Ansätze zu betrachten: Maschinelles Lernen und Deep Learning. Beide sind Teilgebiete der Künstlichen Intelligenz
Maschinelles Lernen vs. Deep Learning
Nachdem wir nun besser verstanden haben, was Künstliche Intelligenz bedeutet, können wir einen genaueren Blick auf Machine Learning und Deep Learning werfen und eine klarere Unterscheidung zwischen diesen beiden treffen.
Machine Learning umfasst „klassische“ Algorithmen für verschiedene Aufgaben wie Clustering, Regression oder Klassifizierung. Algorithmen für maschinelles Lernen müssen auf Daten trainiert werden. Je mehr Daten Sie Ihrem Algorithmus zur Verfügung stellen, desto besser wird er.
Der „Trainingsteil“ eines Machine-Learning-Modells bedeutet, dass dieses Modell versucht, entlang einer bestimmten Dimension zu optimieren. Mit anderen Worten: Die Modelle des maschinellen Lernens versuchen, den Fehler zwischen ihren Vorhersagen und den tatsächlichen Werten der Grundwahrheit zu minimieren.
Dazu müssen wir eine sogenannte Fehlerfunktion definieren, auch Verlustfunktion oder Zielfunktion genannt … denn schließlich hat das Modell ein Ziel. Dieses Ziel könnte zum Beispiel die Klassifizierung von Daten in verschiedene Kategorien (z. B. Katzen- und Hundebilder) oder die Vorhersage des erwarteten Kurses einer Aktie in der nahen Zukunft sein.
Wenn jemand sagt, dass er mit einem Algorithmus des maschinellen Lernens arbeitet, können Sie den Kern des Wertes herausfinden, indem Sie fragen: Was ist die Zielfunktion?
An dieser Stelle könnten Sie fragen: Wie minimieren wir den Fehler?
Eine Möglichkeit wäre, die Vorhersage des Modells mit dem tatsächlichen Wert zu vergleichen und die Parameter des Modells so anzupassen, dass der Fehler zwischen diesen beiden Werten beim nächsten Mal kleiner ist. Dies wird wieder und wieder und wieder wiederholt.
Tausende und Millionen von Malen, bis die Parameter des Modells, die die Vorhersagen bestimmen, so gut sind, dass der Unterschied zwischen den Vorhersagen des Modells und der Grundwahrheit so klein wie möglich ist.
Kurz gesagt: Modelle für maschinelles Lernen sind Optimierungsalgorithmen. Wenn man sie richtig einstellt, minimieren sie ihren Fehler, indem sie raten und raten und nochmals raten.
Maschinelles Lernen ist alt…
Die grundlegende Definition von maschinellem Lernen ist:
Algorithmen, die Daten analysieren, aus ihnen lernen und auf der Grundlage der gewonnenen Erkenntnisse fundierte Entscheidungen treffen.
Maschinelles Lernen führt zu einer Vielzahl von automatisierten Aufgaben. Es betrifft praktisch jede Branche – von der Suche nach IT-Sicherheits-Malware über die Wettervorhersage bis hin zu Börsenmaklern, die nach günstigen Geschäften suchen. Maschinelles Lernen erfordert komplexe Mathematik und eine Menge Programmierarbeit, um die gewünschten Funktionen und Ergebnisse zu erzielen.
Algorithmen für maschinelles Lernen müssen mit großen Datenmengen trainiert werden. Je mehr Daten Sie Ihrem Algorithmus zur Verfügung stellen, desto besser wird er.
Das maschinelle Lernen ist ein ziemlich altes Gebiet und umfasst Methoden und Algorithmen, die schon seit Dutzenden von Jahren bekannt sind, einige davon sogar schon seit den sechziger Jahren.
Zu diesen klassischen Algorithmen gehören Algorithmen wie der sogenannte Naive Bayes Classifier und die Support Vector Machines. Beide werden häufig bei der Klassifizierung von Daten eingesetzt.
Neben der Klassifizierung gibt es auch Algorithmen zur Clusteranalyse wie das bekannte K-Means und das baumbasierte Clustering. Um die Dimensionalität von Daten zu reduzieren und mehr Einblick in ihre Natur zu erhalten, werden beim maschinellen Lernen Methoden wie die Hauptkomponentenanalyse und tSNE eingesetzt.
Deep Learning – The next big Thing
Konzentrieren wir uns nun auf das Wesentliche, um das es hier geht. Um Deep Learning.
Deep Learning ist ein sehr junger Bereich der künstlichen Intelligenz, der auf künstlichen neuronalen Netzen basiert.
Es kann wiederum als Teilgebiet des maschinellen Lernens betrachtet werden, da Deep Learning-Algorithmen ebenfalls Daten benötigen, um zu lernen, Aufgaben zu lösen. Daher werden die Begriffe maschinelles Lernen und Deep Learning oft gleichgesetzt. Diese Technologien haben jedoch unterschiedliche Fähigkeiten.
Deep Learning verwendet eine mehrschichtige Struktur von Algorithmen, die als neuronales Netz bezeichnet wird:
Neuronale Netzwerke verfügen über einzigartige Fähigkeiten, die es Deep-Learning-Modellen ermöglichen, Aufgaben zu lösen, die Machine-Learning-Modelle niemals lösen könnten.
Alle jüngsten Fortschritte im Bereich der Intelligenz sind dem Deep Learning zu verdanken. Ohne Deep Learning gäbe es keine selbstfahrenden Autos, Chatbots oder persönliche Assistenten wie Alexa und Siri. Die Google-Übersetzungs-App bliebe primitiv, und Netflix hätte keine Ahnung, welche Filme oder Fernsehserien wir mögen oder nicht mögen.
Für mehr Informationen über Deep Learning und neuronale Netze empfehle ich Ihnen meinen Artikel „Was ist Deep Learning?“
Wir können sogar so weit gehen zu sagen, dass die neue industrielle Revolution von künstlichen neuronalen Netzen und Deep Learning angetrieben wird. Dies ist der beste und naheliegendste Ansatz für echte maschinelle Intelligenz, den wir bisher haben. Der Grund dafür ist, dass Deep Learning zwei große Vorteile gegenüber dem maschinellen Lernen hat.
Warum ist Deep Learning besser als Machine Learning?
Merkmalsextraktion
Der erste Vorteil des Deep Learning gegenüber dem maschinellen Lernen ist die Unkompliziertheit der sog. Merkmalsextraktion.
Lange bevor Deep Learning zum Einsatz kam, waren traditionelle Methoden des maschinellen Lernens beliebt, wie z. B. Entscheidungsbäume, SVM, Naïve Bayes Classifier und logistische Regression. Diese Algorithmen werden auch „flache Algorithmen“ genannt.
Flach bedeutet hier, dass diese Algorithmen normalerweise nicht direkt auf die Rohdaten (wie .csv, Bilder, Text usw.) angewendet werden können. Wir benötigen einen Vorverarbeitungsschritt, der als Merkmalsextraktion bezeichnet wird.
Das Ergebnis der Merkmalsextraktion ist eine abstrakte Darstellung der gegebenen Rohdaten, die nun von diesen klassischen Algorithmen des maschinellen Lernens zur Erfüllung einer Aufgabe verwendet werden kann. Zum Beispiel die Klassifizierung der Daten in verschiedene Kategorien oder Klassen.
Die Merkmalsextraktion ist in der Regel recht kompliziert und erfordert detaillierte Kenntnisse des Problembereichs. Dieser Schritt muss über mehrere Iterationen angepasst, getestet und verfeinert werden, um optimale Ergebnisse zu erzielen.
Auf der anderen Seite stehen die künstlichen neuronalen Netze. Diese benötigen den Schritt der Merkmalsextraktion nicht. Die Schichten sind in der Lage, eine implizite Repräsentation der Rohdaten direkt selbst zu erlernen.
Dabei wird über mehrere Schichten eines künstlichen neuronalen Netzes eine immer abstraktere und komprimierte Darstellung der Rohdaten erzeugt. Diese komprimierte Darstellung der Eingabedaten wird dann zur Erzeugung des Ergebnisses verwendet. Das Ergebnis kann z.B. die Klassifizierung der Eingabedaten in verschiedene Klassen sein.
Mit anderen Worten kann man sagen, dass der Schritt der Merkmalsextraktion bereits ein Teil des Prozesses ist, der in einem künstlichen neuronalen Netz stattfindet. Während des Trainingsprozesses wird auch dieser Schritt durch das neuronale Netz optimiert, um die bestmögliche abstrakte Darstellung der Eingabedaten zu erhalten. Das bedeutet, dass die Modelle des Deep Learning wenig bis gar keinen manuellen Aufwand für die Durchführung und Optimierung der Merkmalsextraktion erfordern
Wenn man beispielsweise ein maschinelles Lernmodell verwenden möchte, um zu bestimmen, ob ein bestimmtes Bild ein Auto zeigt oder nicht, müssen wir Menschen zunächst die einzigartigen Merkmale eines Autos (Form, Größe, Fenster, Räder usw.) identifizieren, diese Merkmale extrahieren und sie dem Algorithmus als Eingabedaten geben. Auf diese Weise würde der Algorithmus für maschinelles Lernen eine Klassifizierung des Bildes vornehmen. Das heißt, beim maschinellen Lernen muss ein Programmierer direkt in den Klassifizierungsprozess eingreifen.
Im Falle eines Deep-Learning-Modells ist der Schritt der Merkmalsextraktion völlig unnötig. Das Modell würde diese einzigartigen Merkmale eines Autos erkennen und korrekte Vorhersagen treffen – ganz ohne die Hilfe eines Menschen.
Dies gilt im Grunde für jede andere Aufgabe, die Sie mit neuronalen Netzen durchführen werden.
Sie geben dem neuronalen Netz einfach die Rohdaten, den Rest erledigt das Modell.
Wenn Sie mehr darüber erfahren möchten, wie neuronale Netze genau funktionieren, empfehle ich Ihnen den Artikel „Wie lernen künstliche neuronalen Netze?“
Das Zeitalter von Big Data…
Der zweite große Vorteil von Deep Learning und ein wesentlicher Faktor für das Verständnis, warum diese Technik der KI so erfolgreich, ist, dass es von riesigen Datenmengen angetrieben wird. Das „Big Data-Zeitalter“ der Technologie bietet enorme Möglichkeiten für neue Innovationen im Bereich Deep Learning und der künstlichen neuronalen Netze.
Deep Learning-Modelle tendieren dazu, ihre Genauigkeit oder Performance mit der zunehmenden Menge an Trainingsdaten zu erhöhen, wobei sich traditionelle maschinelle Lernmodelle wie SVM und Naive Bayes-Klassifikatoren nach einem Sättigungspunkt nicht mehr verbessern.
Verständlicherweise im Zeitalter der großen Datenmengen und der immer steigenden Rechenleistung können die neuronalen Netze von diesen enormen Datenmengen profitieren und sehr gute Performance erreichen.
Das „Big Data-Zeitalter“ der Technologie wird riesige Mengen an Möglichkeiten für neue Innovationen beim Deep Learning bieten. Um Andrew Ng zu zitieren, den Chefwissenschaftler von Chinas großer Suchmaschine Baidu und einen der Leiter des Google Brain Project:
„Die Analogie zum Deep Learning ist, dass der Raketenmotor die Deep-Learning-Modelle sind und der Treibstoff die riesigen Datenmengen, mit denen wir diese Algorithmen füttern können.“
Andrew Ng, Chief Data Scientist at Baidu.
Deep-Learning-Modelle skalieren besser mit einer größeren Datenmenge und neigen dazu, ihre Genauigkeit mit zunehmender Menge an Trainingsdaten zu erhöhen, während traditionelle maschinelle Lernmodelle wie SVM und Naive Bayes-Klassifikatoren nach einem Sättigungspunkt nicht mehr besser werden.
In meinem Artikel „Neuronale Netze und Ihre Anwendungen“ finden Sie eine Auflistung der praktischen Anwendungen von Deep Learning.
Nachteile der neuronalen Netze
Leider besitzen Deep Learning Algorithmen neben den großen Vorteilen auch einige kleine Nachteile, die ich ihnen hier nicht verheimlichen möchte.
- Durch die implizite Extraktion der Features sind neuronale Netze in der Regel als Black-Boxes zu betrachten und haben dadurch eine sehr geringe Erklärbarkeit. In diesem Kontext bedeutet Erklärbarkeit, dass wir nicht nachvollziehen können, wie ein neuronales Netz zu einem Ergebnis basierend auf den Rohdaten kommt. Wir können nicht wissen welche Rolle die einzelnen Features bei der Berechnung der Ergebnisse spielen und inwiefern bestimmte Features mehr oder weniger wichtig sind.
- Verglichen mit klassischen Machine Learning Methoden besitzen die neuronalen Netze in der Regel eine sehr große Menge an variablen oder Parametern. Wenn ich von einer großen Menge spreche, dann meine ich Millionen bis Milliarden. Diese Variablen müssen beim Trainieren optimiert werden.
- Aus diesem Grund benötigen Deep Learning Modelle in der Regel mehr Zeit zum Trainieren und viel mehr Daten als klassische Machine Learning Modelle.
- Außerdem benötigen wir auch mehr Rechenkapazität