Google ist einer der Pioniere beim Einsatz künstlicher Intelligenz. Das Unternehmen hat kürzlich angekündigt dass es KI-Techniken verwenden könnte, um die Suchanfragen der Nutzer zu analysieren und zu erkennen, ob sie sich in einer Krise befinden.

Zu diesem Zweck hat Google Modelle für maschinelles Lernen entwickelt. Das neueste Modell des Unternehmens heißt MUM und wurde letztes Jahr auf der IO-Konferenz vorgestellt. Google hat jetzt das MUM-Modell für maschinelles Lernen in seine Suchmaschine integriert, um eine höhere Analyseebene bereitzustellen.

MUM muss feststellen, ob die Suchbegriffe für jemanden in einer Krise relevant sein könnten. Das Unternehmen sagt, dass das Ziel einer solchen Maßnahme darin besteht, „ein breiteres Spektrum an persönlichen Krisensuchen genauer zu erkennen“. Anne Merritt, Produktmanagerin für Gesundheit und Informationsqualität bei Google, sagt, dass herkömmliche Suchtools dies nicht leisten können.

Werbung

„MUM kann uns dabei helfen, längere oder komplexere Anfragen zu verstehen, z. B. „Warum hat er mich wann angegriffen? Ich sagte, ich liebe ihn nicht’“, sagte Merrit zu The Verge. „Für Menschen mag es offensichtlich sein, dass es bei dieser Suchanfrage um häusliche Gewalt geht, aber lange, natürlichsprachliche Suchanfragen wie diese sind für unsere Systeme ohne fortschrittliche KI schwer zu verstehen.“

Google verwendet KI-Suchanfragen, um dies zu erkennen ein Benutzer macht eine Krise durch

Die Suche nach Suchanfragen zum Thema Suizid ist ein großes Arbeitsfeld für MUM. Früher wurde die Suche nach Begriffen wie „am häufigsten durchgeführter Suizid“ oder „Suizid-Hotspots in Sydney“ als Informationssuche verstanden.

Aber jetzt kann MUM solche Warteschlangen erkennen und Benutzern eine „Hilfe ist verfügbar“-Option. Sie enthält normalerweise Telefonnummern und Websites von Wohltätigkeitsorganisationen für psychische Gesundheit wie Samariter.

Werbung

Neben der Verhinderung von Selbstmord und riskanten Aktivitäten hat Google Maßnahmen ergriffen, um den Zugang zu pornografischen Inhalten einzuschränken. Das Unternehmen verwendet ein älteres KI-Sprachmodell namens BERT, um Suchen nach expliziten Inhalten, insbesondere Pornografie, zu erkennen. Google sagte, dass die Verwendung von BERT unerwartete, schockierende Ergebnisse Jahr für Jahr um 30 % reduzieren könnte.

Die Auswirkungen und der Einsatz von künstlicher Intelligenz in verschiedenen Google-Abteilungen haben erheblich zugenommen. Vor ein paar Tagen gab Google bekannt, dass es dank KI 100 Millionen missbräuchliche Änderungen in Maps blockieren könnte.

Natürlich kann die Verwendung von KI ein zweischneidiges Schwert sein, und bei vielen Vorteilen gibt es Risiken wie z B. das Einbringen von Vorurteilen und Fehlinformationen in Suchergebnisse.

Anzeige

Categories: IT Info