Root NationNachrichtenIT-NeuigkeitenNicht alles, was wir KI nennen, ist tatsächlich künstliche Intelligenz. Hier ist, was Sie wissen müssen

Nicht alles, was wir KI nennen, ist tatsächlich künstliche Intelligenz. Hier ist, was Sie wissen müssen

-

Im August 1955 beantragte eine Gruppe von Gelehrten die Finanzierung eines Sommerseminars am Dartmouth College in New Hampshire in Höhe von 13 US-Dollar. Das Feld, das sie zu erforschen vorschlugen, war künstliche Intelligenz (KI). Obwohl der Förderantrag bescheiden war, lautete die Hypothese der Forscher nicht: "Jeder Aspekt des Lernens oder jedes andere Merkmal von Intelligenz kann im Prinzip so genau beschrieben werden, dass eine Maschine gebaut werden kann, um ihn nachzuahmen."

Seit diesen bescheidenen Anfängen haben Filme und Medien die KI romantisiert oder als Bösewicht dargestellt. Für die meisten Menschen ist KI jedoch nur eine Frage der Diskussion und kein Teil der bewussten Lebenserfahrung geblieben.

Nicht alles, was wir KI nennen, ist tatsächlich künstliche Intelligenz

Am Ende des letzten Monats, AI in Form von ChatGPT ist aus Science-Fiction-Spekulationen und Forschungslabors auf die Desktops und Telefone der breiten Öffentlichkeit ausgebrochen. Das ist die sogenannte „generative KI“ – eine unerwartet intelligent formulierte Aufforderung kann einen Aufsatz schreiben oder ein Rezept und eine Einkaufsliste erstellen oder ein Gedicht im Stil von Elvis Presley erstellen.

Obwohl ChatGPT war der beeindruckendste Teilnehmer in einem Jahr des Erfolgs der generativen KI, Systeme wie dieses haben ein noch größeres Potenzial zur Erstellung neuer Inhalte gezeigt, und Text-zu-Bild-Aufforderungen werden verwendet, um lebendige Bilder zu erstellen, die sogar Kunstwettbewerbe gewonnen haben. KI hat vielleicht noch kein lebendiges Bewusstsein oder die Theorie des Geistes, die in Science-Fiction-Filmen und Romanen populär gemacht wird, aber sie nähert sich zumindest dem, was wir glauben, dass künstliche Intelligenzsysteme leisten können.

Forscher, die eng mit diesen Systemen zusammenarbeiten, schwärmen von der Aussicht auf Intelligenz, wie im Fall von Googles LaMDA Large Language Model (LLM). LLM ist ein Modell, das darauf trainiert wurde, natürliche Sprache zu verarbeiten und zu erzeugen.

Generative KI hat auch Bedenken in Bezug auf Plagiate, die Nutzung von Originalinhalten, die zum Erstellen von Modellen verwendet werden, die Ethik der Informationsmanipulation und den Missbrauch von Vertrauen und sogar das „Ende der Programmierung“ geäußert.

Was bedeutet KI wirklich?

Im Zentrum steht dabei eine Frage, die seit dem Sommerseminar in Dartmouth immer aktueller wird: Unterscheidet sich KI von menschlicher Intelligenz? Um als KI zu gelten, muss ein System ein gewisses Lern- und Anpassungsniveau aufweisen. Aus diesem Grund sind Entscheidungsfindungs-, Automatisierungs- und Statistiksysteme keine KI. Im Großen und Ganzen wird KI in zwei Kategorien unterteilt: künstliche enge Intelligenz (KI) und künstliche allgemeine Intelligenz (KI). Derzeit existiert die GKV nicht. Eine zentrale Herausforderung beim Aufbau allgemeiner KI besteht darin, die Welt mit dem gesamten Wissensbestand auf konsistente und nützliche Weise angemessen zu modellieren. Das ist, gelinde gesagt, eine große Aufgabe.

Das meiste, was wir heute als KI kennen, hat eine enge Intelligenz – wo ein bestimmtes System ein bestimmtes Problem löst. Im Gegensatz zur menschlichen Intelligenz ist eine solche enge KI-Intelligenz nur in dem Bereich effektiv, in dem sie trainiert wurde: wie Betrugserkennung, Gesichtserkennung oder soziale Empfehlungen. Und KI wird genauso funktionieren wie eine Person. Das derzeit prominenteste Beispiel für Versuche, dies zu erreichen, ist der Einsatz von neuronalen Netzen und Deep Learning, das auf riesigen Datenmengen trainiert wird.

Nicht alles, was wir KI nennen, ist tatsächlich künstliche Intelligenz

Neuronale Netze sind von der Funktionsweise des menschlichen Gehirns inspiriert. Im Gegensatz zu den meisten maschinellen Lernmodellen, die Berechnungen mit Trainingsdaten durchführen, funktionieren neuronale Netzwerke, indem sie jeden Datenpunkt der Reihe nach durch ein miteinander verbundenes Netzwerk speisen und die Parameter jedes Mal anpassen. Wenn immer mehr Daten durch das Netz gespeist werden, stabilisieren sich die Parameter, was zu einem „trainierten“ neuronalen Netz führt, das dann auf neue Daten die gewünschte Ausgabe erzeugen kann – zum Beispiel erkennen, ob ein Bild eine Katze oder einen Hund enthält.

Ein bedeutender Sprung in der Entwicklung der künstlichen Intelligenz ist heute auf technologische Verbesserungen der Methoden zum Lernen großer neuronaler Netze zurückzuführen, die dank der Fähigkeiten großer Cloud-Computing-Infrastrukturen die Anpassung einer großen Anzahl von Parametern während jedes Laufs ermöglichen. Beispielsweise ist GPT-3 (das KI-System, das ChatGPT antreibt) ein großes neuronales Netzwerk mit 175 Milliarden Parametern.

Was ist erforderlich, damit künstliche Intelligenz funktioniert?

Künstliche Intelligenz braucht drei Dinge, um erfolgreich zu funktionieren. Erstens braucht er Qualität, objektive Daten, und zwar jede Menge davon. Forscher, die neuronale Netze aufbauen, nutzen große Datenmengen, die dank der Digitalisierung der Gesellschaft entstanden sind.

Als Ergänzung zu menschlichen Programmierern bezieht Co-Pilot seine Daten aus Milliarden von Codezeilen, die auf GitHub gehostet werden. ChatGPT und andere große Sprachmodelle nutzen die Milliarden von Websites und Textdokumenten, die im Internet gespeichert sind.

Text-zu-Bild-Konvertierungstools wie z Stable Diffusion , VON-2 und Midjourney verwenden Bild-Text-Paare aus Datensätzen wie LAION-5B. KI-Modelle werden sich weiterentwickeln, wenn wir mehr von unserem Leben digitalisieren und sie mit alternativen Datenquellen wie Simulationsdaten oder Daten aus Spielumgebungen wie Minecraft füttern.

Nicht alles, was wir KI nennen, ist tatsächlich künstliche Intelligenz

KI benötigt auch eine Recheninfrastruktur, um effektiv trainieren zu können. Mit der Leistungsfähigkeit von Computern können Modelle, die heute intensiven Aufwand und umfangreiche Berechnungen erfordern, in naher Zukunft lokal verarbeitet werden. Beispielsweise kann das Stable Diffusion-Modell bereits auf lokalen Computern ausgeführt werden und nicht in Cloud-Umgebungen. Die dritte Notwendigkeit für KI sind verbesserte Modelle und Algorithmen. Datengesteuerte Systeme machen weiterhin schnelle Fortschritte in Bereichen, die einst als Domäne der menschlichen Kognition galten.

Da sich die Welt um uns herum jedoch ständig verändert, müssen KI-Systeme mit neuen Daten immer wieder neu trainiert werden. Ohne diesen wichtigen Schritt werden KI-Systeme Antworten geben, die sachlich falsch sind oder neue Informationen nicht berücksichtigen, die seit ihrem Training aufgetaucht sind.

Neuronale Netze sind nicht der einzige Ansatz für KI. Ein weiteres bemerkenswertes Lager in der Erforschung künstlicher Intelligenz ist die symbolische KI – anstatt riesige Datenmengen zu verarbeiten, stützt sie sich auf Regeln und Wissen, die dem menschlichen Prozess der Bildung interner symbolischer Repräsentationen bestimmter Phänomene ähneln.

Doch in den letzten zehn Jahren haben sich die Machtverhältnisse stark in Richtung datengetriebener Ansätze verschoben, und die „Gründungsväter“ des modernen Deep Learning wurden kürzlich mit dem Turing-Preis ausgezeichnet, dem Nobelpreis für Informatik.

Nicht alles, was wir KI nennen, ist tatsächlich künstliche Intelligenz

Daten, Berechnungen und Algorithmen bilden die Grundlage zukünftiger KI. Alle Indikatoren deuten auf absehbare Zeit auf rasche Fortschritte in allen drei Kategorien hin.

Sie können der Ukraine helfen, gegen die russischen Invasoren zu kämpfen. Der beste Weg, dies zu tun, besteht darin, Gelder an die Streitkräfte der Ukraine zu spenden Das Leben retten oder über die offizielle Seite NBU.

QuelleScience
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen