1943

Neural Network Modeling

McCulloch & Pitts präsentieren das erste mathematische Modell von neuronalen Netzen.

Der Turing Test

Der Turing-Test bewertet, ob eine Maschine in einer Konversation von einem Menschen unterschieden werden kann.

1950
1952

Künstliche Intelligenz Spielt Dame

Arthur Samuel schreibt eines der ersten Machine Learning Programme. In diesem spielt das Model Dame.

Rosenblatt Perceptron

Frank Rosenblatt erfindet das erste künstliche neuronale Netz

1957
1963

Streichholzschachtel Computer

Donald Michie erfindet eine Maschine, die mit 304 Streichholzschachteln Reinforcement Learning nutzt, um Tic-Tac-Toe zu spielen.

Nearest-Neighbor-Heuristik

Die Nearest-Neighbour-Heuristik wurde entwickelt. Dies ist der Anfang der grundlegenden Mustererkennung. Der Algorithmus wird für die Routenplanung genutzt.

1963
1967

Limitationen Neuronaler Netzwerke

Marvin Minsky und Seymour Papert veröffentlichen ihr Buch Perceptrons, in dem sie Grenzen von Perceptrons und neuronalen Netzen beschreiben.

Automatic Differentiation

Seppo Linnainmaa veröffentlicht die allgemeine Methode zur automatischen Differenzierung (AD) von diskreten zusammenhängenden Netzwerken verschachtelter differenzierbarer Funktionen.

1970
1973

KI Winter

Unter anderem durch die Interpretation des Buchs 'Perceptrons' sowie einer kritischen Evaluation von James Lighthill sanken die Fördergelder für den Bereich KI, was zu erheblich weniger Forschung führte.

Das Stanford Cart

Studenten der Stanford University entwickeln ein Fahrzeug, das in der Lage ist durch einen Raum zu navigieren und dabei Hindernissen auszuweichen.

1979
1979

Neocognitron

Kunihiko Fukushima veröffentlicht seine Arbeit über das Neocognitron, eine Art künstliches neuronales Netz.

Explanation-Based-Learning

Gerald Dejong entwickelte "Explanation Based Learning" (EBL). Hierbei analysiert ein Algorithmus Daten, erstellt eine Regel und verwirft unwichtige Informationen.

1981
1985

NETtalk

NetTalk ist ein neuronales Netzwerk von Terrence J. Sejnowski und Charles Rosenberg, das darauf trainiert wurde, englische Wörter korrekt auszusprechen.

Parallel Distributed Processing

Parallel Distributed Processing ist ein Modell der kognitiven Verarbeitung, bei dem Informationen in einem Netzwerk von miteinander verbundenen Knoten gleichzeitig und parallel verarbeitet werden können.

1986
1986

Backpropagation

Noch heute ein häufig genutzter Algorithmus zum trainieren von Deep Neural Networks.

Q-Learning

Christopher Watkins entwickelt Q-Learning, das die Möglichkeiten von Reinforcement Learning bedeutend erweitert.

1989
1992

Maschine Spielt Backgammon

Gerald Tesauro stellt ein Programm vor, das mithilfe eines künstlichen neuronalen Netzes auf ähnlichem Niveau wie Top-Spieler Backgammon spielt.

Support Vector Machines

Corinna Cortes und Vladimir Vapnik veröffentlichen ihre Arbeit zu Support Vector Machines

1995
1995

Random Decision Forest

Tin Kam Ho beschreibt Random Decision Forests, eine Methode des Ensemble Learnings.

KI schlägt Schachgroßmeister

Die von IBM entwickelte Software Deep Blue gewinnt gegen Großmeister Garri Kasparov im Schach

1997
1997

LSTM

Sepp Hochreiter und Jürgen Schmidhuber erfinden den long short-term memory (LSTM) Algorithmus.

MNIST Database

Ein Team um Yann LeCun veröffentlicht die MNIST-Datenbank, eine Datenbank mit 60.000 Trainingsdaten handgeschriebener Ziffern.

1998
2002

Torch

Torch ist die erste große Open-Source-Softwarebibliothek für Machine Learning und Data Science, die veröffentlicht wurde. Torch bzw. PyTorch sind nach wie vor relevant in Industrie und Forschung.

Geoffrey Hinton und Deep Learning

Das Paper "A Fast Learning Algorithm for Deep Belief Nets" wird veröffentlicht. Dort beschreibt Geoffrey Hinton den ersten Deep-Learning Algorithmus, der bei schwierigen und komplexen Mustererkennungsaufgaben eine Leistung auf menschlichem Niveau erreichen kann.

2006
2006

Der Netflix Preis

er Netflix-Preis war ein offener Wettbewerb zur Entwicklung eines Algorithmus für die Vorhersage von Nutzerbewertungen, der besser funktioniert als Netflix' eigener Algorithmus. Der Preis (1 Mio. US$) wurde 2009 vom BellKor's Pragmatic Chaos Team gewonnen.

ImageNet

Li Fei-Fei stellt ImageNet als Poster auf der CVPR vor. Mithilfe von ImageNet wurden signifikante Fortschritte im Bereich der Computer Vision möglich. Objekterkennung, Bildklassifikation und weitere Techniken sind auf Daten angewiesen, die die Welt bestmöglich abbilden.

2009
2011

IBM's Watson gewinnt Jeopardy!

Mit einer Kombination verschiedener Machine Learning Algorithmen schlägt IBMs Watson zwei Champions in der Gameshow Jeopardy!

AlexNet

AlexNet gewinnt den LSVRC. AlexNet ist ein Convolutional Neural Network (CNN), das erstmals erfolgreich GPUs und ein Deep CNN für Computer Vision nutzt. Seitdem wurde der Artikel über 120.000 mal zitiert.

2012
2014

DeepFace

Facebook veröffentlicht Deep Face; eine Deep-Learning-Software, die menschliche Gesichter mit einer annähernd menschlichen Genauigkeit erkennt.

KI schlägt Go-Profi

Das von Google entwickelte Programm AlphaGo ist das erste Programm, das einen professionellen Go-Spieler ohne Handicap schlägt.

2016
2017

Transformers

Google Brain veröffentlicht die Transformer-Architektur. Diese ist eine leistungsfähige Variante neuronaler Netze, die seitdem in vielen Bereichen des maschinellen Lernens dominiert.

GPT-3

OpenAI veröffentlicht mit GPT-3 ein NLP-Modell, das in der Lage ist, Sprachaufgaben in einer annähernd menschenähnlichen Art und Weise zu lösen.

2020
2023

ChatGPT & die Gesellschaft

Die Veröffentlichung und breite Nutzung von GPT-3.5 (ChatGPT) löst eine öffentliche Diskussion über künstliche Intelligenz und ihre möglichen Auswirkungen auf die Gesellschaft aus.