Das von OpenAI in den USA aufgebaute KI-Debattenformat hat weltweites Interesse geweckt. Microsoft, der Hauptinvestor des Unternehmens, begann, die Auswirkungen des GPT-4-Modells auf zukünftige Menschen jeden Alters zu bewerten. Es hat bei einer Vielzahl von professionellen und akademischen Standardprüfungen Leistungen auf menschlichem Niveau gezeigt. Dazu gehört die Fähigkeit, die Scheinprüfung zu bestehen und sich unter den besten 10 % zu platzieren. GPT-4 ist ein groß angelegtes multimodales Modell, das menschenähnliche Wörter erzeugen kann.
GPT-4 birgt jedoch mehrere mögliche Risiken, die sowohl der Gesellschaft als auch den Menschen schaden könnten. In einem offenen Brief forderte Tesla-Gründer Elon Musk eine sechsmonatige Unterbrechung der Entwicklung von Systemen, die robuster als GPT-4 sind. Musk ist nicht der Einzige, der diese Forderung stellt. Ähnliche Forderungen stellen auch mehrere KI-Experten. Sie glauben, dass bei diesem Tempo ein externes Sicherheitsprotokoll und eine Expertenbewertung erforderlich sind. Sie betonten auch das Risiko wirtschaftlicher und politischer Turbulenzen, die durch fortschrittliche KI-Systeme verursacht werden. Daher fordern sie Entwickler auf, mit Gesetzgebern zusammenzuarbeiten, um politische Gremien zu schaffen.
Musk, Wozniak und andere unterzeichnen GPT-4-Stopp-Brief
Musk, Apple-Mitbegründer Steve Wozniak und Emad Mostaker, CEO von Stableility AI, gehören dazu die Unterzeichner des Schreibens. Der Brief stammt von einer NGO, dem Future of Life Institute. Es gab mehr als 1.000 Unterzeichner. Auszugsweise lautet der Brief
Gizchina-Nachrichten der Woche
„Starke KI-Systeme sollten nur entwickelt werden, wenn wir überzeugt sind, dass die Auswirkungen positiv und die Risiken beherrschbar sind“,
Die EU-Polizeibehörde Europol äußerte ebenfalls ethische und rechtliche Bedenken hinsichtlich der Schneide KI-Systeme wie ChatGPT am Montag. Es warnt davor, dass solche Systeme für Phishing, Betrug und Cyberkriminalität missbraucht werden könnten. Das von Microsoft unterstützte ChatGPT von OpenAI, das letztes Jahr veröffentlicht wurde, hat Konkurrenten dazu inspiriert, ähnliche Lösungen zu erhalten. Viele Marken verwenden jetzt das System oder ähnliche Technologien in ihren Produkten und Apps. OpenAI behauptet jedoch, dass es alles tut, um sicherzustellen, dass GPT-4 sicher ist. Das Unternehmen behauptet, dass es sechs Monate an GPT-4 gearbeitet hat, um die besten Ergebnisse in Bezug auf Stabilität, reale Ergebnisse und sichere Reichweite zu erzielen.