4+88, es rät einfach und gibt direkt 120 aus. Dann hält es inne, als ob es denkt: "Vielleicht sollte ich das erklären." Es berechnet dann jeden Schritt, 74 und 88, kombiniert sie und erhält 92, ein anderes Ergebnis als die ursprüngliche Vermutung. Als der Experimentator sagt: "Moment, du hast vorher 120 gesagt", antwortet es: "Das war ein Fehler, die richtige Antwort ist 92."
Im Wesentlichen haben diese Technologien, zumindest auf ihrem aktuellen Niveau, noch keine... Sie haben keine grundlegende Vorstellung von Korrektheit. Man versucht durch Experimente, sie Schritt für Schritt zu denken, anstatt nur zu raten. Das hilft ein wenig, aber es sind alles "Hacks". Sie sind nicht... Sie sind nicht so zuverlässig wie Experten, obwohl sie manchmal Experten-ähnliche Ausgaben liefern können.
Die Frage ist also, wie wir diese Technologie nutzen können. Es ist eine andere Art von Technologie. Wir sind an frühere Technologien gewöhnt, die Fehler machen konnten. Diese schlechten Technologien produzierten minderwertige Ausgaben, aber normalerweise, wenn ein Programm oder eine Technologie schlechte Ausgaben produzierte, konnte man sagen, dass es schlecht war, wie... es sah nicht echt aus. Aber KI ist tatsächlich so konzipiert, dass die Gewichte speziell ausgewählt werden, damit die Antworten so nah wie möglich an der richtigen Antwort liegen. Selbst wenn sie falsch liegen, sehen sie sehr überzeugend aus. Daher funktioniert die bestehende Wahrnehmung, wie man erkennt, wann etwas gut oder schlecht aussieht, nicht, besonders wenn man es auf eine Weise verwenden möchte, die tatsächlich Schaden anrichten könnte.
Zum Beispiel, wenn man KI für medizinische Entscheidungen, finanzielle Entscheidungen oder sogar als Therapeuten einsetzen möchte, könnten diese Textgeneratoren großartige Begleiter sein, aber auch sehr schlechte Ratschläge geben.
In vielen Bereichen gibt es also ein enormes Potenzial für KI, aber die Sicherheit ist noch nicht gegeben. Es ist, als hätte man das Strahltriebwerk erfunden. Man kann damit schnell eine Art Fluggerät simulieren, aber es könnte Jahrzehnte dauern, bis es wirklich sicher für die Öffentlichkeit ist. Flugreisen sind heute die sicherste Reisemethode pro Meile, obwohl es offensichtlich eine gefährliche Technologie ist. Diese Probleme werden gelöst werden und sind lösbar, aber man muss wirklich über Sicherheit nachdenken. Man muss davon ausgehen, dass es passieren wird.
Andererseits gibt es gute Anwendungen für KI in Szenarien mit geringem Abwärtsrisiko. Vielleicht haben Sie bemerkt, dass alle Hintergrundfolien in der Präsentation von KI generiert wurden. Vielleicht haben Sie einige Mängel bemerkt. KI ist immer noch schlecht darin, Text zu generieren, aber es wird langsam besser, und das Abwärtsrisiko ist gering. Es muss nur überzeugend aussehen. Die Hintergrundbilder sind nicht der Hauptteil, der Kern meines Vortrags. In einigen Anwendungen ist also ein solches Abwärtsrisiko durchaus akzeptabel.
Besonders in der Wissenschaft ist eine Möglichkeit, das Risiko von Fehlern und Voreingenommenheit zu reduzieren, die wissenschaftliche Validierung, insbesondere die unabhängige Validierung. Wenn es einen Weg gäbe, die wirklich leistungsfähigen Ausgaben der KI zu kombinieren und durch unabhängige Validierung den Müll herauszufiltern und nur das Gute zu behalten, gäbe es viele potenzielle Anwendungen.
Eine weitere Analogie: Ein Wasserhahn kann eine bestimmte Menge Trinkwasser produzieren, aber es gibt eine Grenze für die Menge. Plötzlich haben wir einen großen Feuerwehrschlauch, der 100-mal so viel Wasser produzieren kann, aber dieses Wasser ist nicht direkt trinkbar. Wenn man eine Filteranlage hat, die den nicht trinkbaren Teil herausfiltert, hat man eine große Menge Trinkwasser. So sehe ich die Entwicklung in Wissenschaft und Mathematik.
Derzeit gibt es in vielen wissenschaftlichen Bereichen Engpässe, die gute Kandidaten zur Problemlösung benötigen. Vielleicht arbeiten Sie an der Entwicklung von Medikamenten und suchen nach einem Medikament zur Behandlung einer bestimmten Krankheit. Sie müssen sich zuerst ein Medikament ausdenken, vielleicht aus der Natur oder durch Modifikation eines Medikaments. Dann müssen Sie es synthetisieren, Sie müssen jahrelange Studien durchführen, Phase-1-Studien, Phase-2-Studien... und diese Studien sind sehr teuer, so dass derzeit nur große Pharmaunternehmen dies kontinuierlich tun können. Tatsächlich funktionieren viele der Medikamente, die Sie testen, nicht, und Sie müssen sie irgendwann im Prozess aufgeben. Manchmal haben Sie Glück, und obwohl sie die Krankheit nicht heilen, funktionieren sie für etwas anderes. Das Problem ist, dass Sie immer noch viele Versuche und viele Fehler machen müssen.
KI-Technologie verspricht, die Anzahl der Kandidaten zu reduzieren, und Menschen verwenden sie bereits zur Simulation von Proteinen. Mit genügend Daten können Sie Proteine simulieren und sehen, ob sie an bestimmte Rezeptoren binden oder die Wirkung bestimmter Enzyme hemmen können. So können Sie die Anzahl der Kandidaten, die tatsächlich synthetisiert und getestet werden müssen, drastisch reduzieren.