Die von der KI ausgehende Bedrohung der Auslöschung der Menschheit ist mit der einer Pandemie oder eines Atomkriegs vergleichbar.
Diese Warnung kommt von einer Reihe von Experten, darunter KI-Wissenschaftler, Professoren usw Tech-Koryphäen, darunter hochrangige Mitglieder von Google/Alphabet (und DeepMind), OpenAI (der Hersteller von ChatGPT) und der CTO und Chief Science Officer von Microsoft (einer der derzeit größten Befürworter von KI, zusammen mit Bing und jetzt Copilot). ).
Dazu gehören auch eine Reihe von Autoren, die erstklassige Lehrbücher über KI und Deep Learning geschrieben haben, sowie ein Trio von Turing-Award-Gewinnern und viele, viele andere. Das ist hier eine ziemlich starke Unterstützung.
Die offiziell vom Center for AI Safety herausgegebene Erklärung ist kurz und bündig und lautet:
“Das Risiko des Aussterbens durch KI sollte gemindert werden werden neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein Seien Sie bei KI-Fortschritten vorsichtig, anstatt einfach nur mit gesenktem Kopf weiterzumachen – was bisher sehr verlockend zu sein scheint.
Google und Microsoft sind beide mit ihrem jeweiligen Bard und Bing absolut auf dem Vormarsch KIs so schnell wie möglich, mit mehr Sorge, hinter den konkurrierenden Chatbot zurückzufallen, als der Sorge darüber, welche Auswirkungen diese Art von Fortschritt auf die Gesellschaft insgesamt haben könnte.
Daher ist es besonders interessant, prominente Führungskräfte dieser KIs zu sehen Unternehmen, die diese Erklärung unterzeichnen, obwohl es eine Sache ist, seine Besorgnis zum Ausdruck zu bringen – und eine andere, etwas dagegen zu unternehmen. (Etwas, das Ihre letzte und größte Hoffnung, weiterhin die Suche zu dominieren – oder Googles Dominanz im Fall von Microsoft – und das Web insgesamt herauszufordern, möglicherweise zunichte macht).
Die Reaktionen auf Twitter waren vorhersehbar polarisiert: Das ist eines von beiden sehr besorgniserregend, oder es ist alarmierend und angstmachend.
Obwohl fairerweise und auf die Gefahr hin, das Offensichtliche zu sagen, wird vieles, was passiert, darauf hinauslaufen, wie wir KI genau nutzen. Mit anderen Worten: Die Gefahr selbst liegt nicht in der KI, sondern in der Art und Weise, wie wir sie gestalten und weiterentwickeln und was wir damit machen.
Es gibt sicherlich diejenigen, die argumentieren, dass jetzt Maßnahmen ergriffen werden müssen, um das Wachstum zu steuern von KI ist der Schlüssel für die Zukunft, wenn weitaus ausgefeiltere Inkarnationen – bis hin zu AGI oder künstlicher allgemeiner Intelligenz – im Spiel sind. (Obwohl die Definition von AGI selbst umstritten ist, wie wir an anderer Stelle untersucht haben).
Für uns stellt die Art von KI, die jetzt eingeführt wird, zwar keine existenzielle Bedrohung als solche dar – Große Sprachmodelle (LLMs) bergen sicherlich Gefahren und Fallstricke, vor denen wir sehr vorsichtig sein müssen. Hauptsächlich die Bedrohung von Arbeitsplätzen, die durchaus real ist – in einer Unternehmenswelt, in der Profit und Aktionäre im Allgemeinen im Vordergrund stehen und nicht die Arbeitnehmer – und auch die Auswirkungen auf den kreativen Bereich (Kunst und Musik, und ja, auch schriftliche Inhalte).