Was ist KI?
KI, auch als künstliche Intelligenz bekannt, ist eine Technologie mit menschenähnlichen Fähigkeiten zur Problemlösung. Künstliche Intelligenz scheint menschliche Intelligenz nachzuahmen – sie kann Bilder erkennen, Gedichte schreiben und datenbasierte Vorhersagen treffen.
Moderne Organisationen erfassen große Datenmengen aus unterschiedlichen Quellen, wie etwa intelligenten Sensoren, von Menschen erstellten Inhalten, Überwachungs-Tools und Systemprotokollen. Technologien für künstliche Intelligenz analysieren die Daten und nutzen sie, um Geschäftsabläufe wirksam zu unterstützen. Beispielsweise kann KI-Technologie auf menschliche Gespräche im Kundensupport reagieren, Originalbilder und -texte für Marketingzwecke erstellen und intelligente Vorschläge für Analytik machen.
Letztendlich geht es bei künstlicher Intelligenz darum, Software intelligenter zu machen, um individuelle Benutzerinteraktionen und komplexe Problemlösungen zu ermöglichen.
Was sind einige Arten von KI-Technologien?
KI-Apps und -Technologien haben in den letzten Jahren exponentiell zugenommen. Nachfolgend finden Sie einige Beispiele für gängige KI-Technologien, die Ihnen möglicherweise begegnet sind.
Geschichte von KI
In seiner Arbeit „Computing Machinery and Intelligence“ aus dem Jahr 1950 beschäftigte sich Alan Turing mit der Frage, ob Maschinen denken könnten. In diesem Artikel prägte Turing zunächst den Begriff künstliche Intelligenz und stellte ihn als theoretisches und philosophisches Konzept vor. Allerdings ist die KI, wie wir sie heute kennen, das Ergebnis der gemeinsamen Anstrengung vieler Wissenschaftler und Techniker über mehrere Jahrzehnte hinweg.
1940 bis 1980
1943 schlugen Warren McCulloch und Walter Pitts ein Modell künstlicher Neuronen vor und legten damit den Grundstein für neuronale Netzwerke, die Kerntechnologie der künstlichen Intelligenz.
Kurz darauf veröffentlichte Alan Turing 1950 „Computing Machinery and Intelligence“, in dem er das Konzept des Turing-Tests zur Bewertung der Maschinenintelligenz vorstellte.
Dies führte dazu, dass die Doktoranden Marvin Minsky und Dean Edmonds die erste neuronale Netzmaschine namens SNARC bauten, Frank Rosenblatt entwickelte das Perceptron, eines der frühesten Modelle eines neuronalen Netzwerks, und Joseph Weizenbaum schuf ELIZA, einen der ersten Chatbots, der zwischen 1951 und 1969 einen Rogerian- Psychotherapeuten simulierte.
Von 1969 bis 1979 zeigte Marvin Minsky die Grenzen neuronaler Netzwerke auf, was zu einem vorübergehenden Rückgang der Forschung im Bereich neuronaler Netzwerke führte. Der erste „KI-Winter“ ereignete sich aufgrund reduzierter Finanzmittel sowie Hardware- und Recheneinschränkungen.
1980 bis 2006
In den 1980er Jahren kam es zu einem erneuten Interesse und staatlicher Förderung für die KI-Forschung, vor allem in den Bereichen Übersetzung und Transkription. Während dieser Zeit erfreuten sich Expertensysteme wie MYCIN großer Beliebtheit, da sie menschliche Entscheidungsprozesse in bestimmten Bereichen wie der Medizin simulierten. Mit der Wiederbelebung neuronaler Netzwerke in den 1980er Jahren veröffentlichten David Rumelhart und John Hopfield Arbeiten über Deep-Learning-Techniken, die zeigten, dass Computer aus Erfahrungen lernen können
Aufgrund anderer sozioökonomischer Faktoren und des Dotcom-Booms kam es zwischen 1987 und 1997 zu einem zweiten KI-Winter. Die KI-Forschung wurde stärker fragmentiert und die Teams lösten Domain-spezifische Probleme in unterschiedlichen Anwendungsfällen.
Von 1997 bis etwa 2006 konnten wir bedeutende Erfolge im Bereich der künstlichen Intelligenz beobachten. Unter anderem gelang es IBM, mit der Schach-Software Deep Blue den Schachweltmeister Garri Kasparow zu besiegen. Darüber hinaus veröffentlichte Judea Pearl ein Buch, das sich mit der Wahrscheinlichkeits- und Entscheidungstheorie in der KI-Forschung befasste, und Geoffrey Hinton und andere machten Deep Learning populär, was zu einer Renaissance neuronaler Netzwerke führte. Das kommerzielle Interesse blieb jedoch begrenzt.
2007 bis Gegenwart
Von 2007 bis 2018 sorgten Fortschritte im Cloud Computing dafür, dass Rechenleistung und KI-Infrastruktur zugänglicher wurden. Dies führte zu einer zunehmenden Akzeptanz, Innovation und Weiterentwicklung im Bereich des Machine Learning. Zu den Fortschritten gehörte eine faltendes neuronales Netzwerk (CNN)-Architektur namens AlexNet, die von Alex Krizhevsky, Ilya Sutskever und Geoffrey Hinton entwickelt wurde und den ImageNet-Wettbewerb gewann. Dabei wurde das Potenzial von Deep Learning bei der Image-Erkennung demonstriert. Außerdem meisterte Googles AlphaZero die Spiele Schach, Shogi und Go ohne menschliche Daten und verließ sich dabei auf das Selbstspiel.
Im Jahr 2022 wurden Chatbots, die künstliche Intelligenz (KI) und natürliche Sprachverarbeitung (NLP) nutzen, um menschenähnliche Gespräche zu führen und Aufgaben zu erledigen, wie ChatGPT von OpenAI, weithin für ihre Konversationsfähigkeiten bekannt, was das Interesse und die Entwicklung von KI erneuerte.
KI in der Zukunft
Aktuelle KI-Technologien funktionieren alle innerhalb einer Reihe vorgegebener Parameter. Beispielsweise können KI-Modelle, die in der Bilderkennung und -generierung geschult sind, keine Websites erstellen.
Künstliche allgemeine Intelligenz (AGI) ist ein Gebiet der theoretischen KI-Forschung, das versucht, Software mit menschenähnlicher Intelligenz und der Fähigkeit zum Selbststudium zu entwickeln. Das Ziel besteht darin, dass die Software Aufgaben übernimmt, für die diese nicht unbedingt trainiert oder entwickelt wurde.
AGI ist ein theoretisches Projekt zur Entwicklung von KI-Systemen, die über autonome Selbstkontrolle und ein angemessenes Maß an Selbstverständnis verfügen sowie neue Fähigkeiten erlernen können. Es kann komplexe Probleme in Umgebungen und Kontexten lösen, die bei seiner Entstehung nicht vermittelt wurden. AGI mit menschlichen Fähigkeiten bleibt ein theoretisches Konzept und Forschungsziel. Es handelt sich um eine mögliche Zukunft der KI.
Weitere Informationen über künstliche allgemeine Intelligenz »