Erinnern Sie sich noch daran, als Prisma die ultimative „KI“-Bildbearbeitungs-App da draußen war? Ja, wir haben seitdem sicherlich einen langen Weg zurückgelegt. Mit dem Aufkommen prompt-basierter KI-Bildgeneratoren wie DALL-E und Midjourney ist das Erstellen von Kunst und Deepfakes praktisch für jeden da draußen verfügbar.

Aber es gibt Einschränkungen, nicht wahr? Nach der anfänglichen Neuheit, Midjourney zu bitten, sich verschiedene Eingabeaufforderungen vorzustellen und zu sehen, was es herauswirft, wird alles ziemlich langweilig. Oder zumindest war es das für mich.

Narzisstische Energie?

Schau, ich bin introvertiert, was bedeutet, dass ich nicht wirklich gerne ausgehe. Aber weißt du, was ich mag? Bilder von mir an Orten zu haben, an die ich wahrscheinlich nie gehen würde; Verdammt, Orte, an die ich auch nicht gehen kann.

Natürlich wollte ich KI-Tools bitten, Bilder von mir in verschiedenen Situationen und an verschiedenen Orten zu erstellen. Ich wollte jedoch auch keine Bilder von mir auf zufälligen Websites hochladen, in der Hoffnung, dass die Ergebnisse gut sein könnten; und da habe ich von Dreambooth gelesen.

Lasst die Spiele beginnen…

Es stellt sich heraus, dass wirklich schlaue Leute Dinge wie Stable Diffusion zu den Massen gebracht haben. Darüber hinaus haben andere mit ihnen zusammengearbeitet und es buchstäblich jedem mit etwas Geduld ermöglicht, seine eigenen Stable Diffusion-Modelle zu erstellen und sie vollständig online auszuführen.

Also, obwohl ich ein M1 MacBook Air habe, das vorbei ist no mean soll als Trainingsmaschine für ein Deep-Learning-Bildgenerierungsmodell verwendet werden, ich kann ein Google Colab-Notebook ausführen und all das auf Googles Servern tun – kostenlos!

Alles, was ich wirklich brauchte, waren ein paar Bilder von mir, und das war’s.

Meinen KI-Bildgenerator trainieren

Das Trainieren Ihres eigenen Bildgenerators ist überhaupt nicht schwierig. Es gibt eine Reihe von Anleitungen online, wenn Sie Hilfe benötigen, und im Grunde ist alles sehr einfach. Sie müssen nur das Colab-Notizbuch öffnen, Ihre Bilder hochladen und mit dem Training des Modells beginnen. All das geht recht schnell.

Okay, seien wir fair, das Text-Encoder-Training findet ziemlich schnell statt, innerhalb von 5 Minuten. Das Trainieren des UNet mit den auf die Standardeinstellungen gesetzten Parametern dauert jedoch ziemlich lange – fast 15 bis 20 Minuten. Angesichts der Tatsache, dass wir ein KI-Modell tatsächlich darauf trainieren, mein Gesicht zu erkennen und zu zeichnen, klingen 20 Minuten jedoch nicht nach zu viel Zeit.

Während des Trainings gibt es eine Reihe von Möglichkeiten, wie Sie anpassen können, wie viel Sie Ihr Modell trainieren möchten, und was ich aus dem Lesen von Erfahrungen vieler Leute online verstanden habe, ist, dass es so ist hier gibt es keine wirkliche „one-size-fits-all“-Strategie. Für grundlegende Anwendungsfälle schienen die Standardwerte jedoch für die meisten Leute gut zu funktionieren, und ich blieb auch bei diesen. Zum Teil, weil ich nicht wirklich verstehen konnte, was die meisten Dinge bedeuteten, und zum Teil, weil ich einfach keine Lust hatte, mehrere Modelle mit unterschiedlichen Trainingsparametern zu trainieren, um zu sehen, was zu den besten Ergebnissen führte.

Schließlich suchte ich einfach nach einem lustigen KI-Bildgenerator, der ein paar halbwegs anständige Bilder von mir machen kann.

Übertrifft die Erwartungen

Ich bin bei weitem kein KI-Experte. Ich verstehe jedoch, dass das Training eines Stable-Diffusion-Modells auf einem Google Colab-Notebook mit 8 jpegs von mir selbst, die auf 512 × 512 Pixel zugeschnitten sind, nicht wirklich zu etwas Außergewöhnlichem führen wird.

Wie sehr habe ich mich geirrt.

Bei meinem ersten Versuch, das von mir trainierte Modell zu verwenden, begann ich mit einer einfachen Eingabeaufforderung, die „akshay“ sagte. Das folgende ist das Bild, das erzeugt wurde.

Nicht toll, oder? Aber es ist auch nicht so schlimm, oder?

Aber dann fing ich an, mit einigen der in der Benutzeroberfläche verfügbaren Parameter zu spielen. Es gibt mehrere Sampling-Methoden, Sampling-Schritte, CFG-Skalierung, Skripte und vieles mehr. Es ist Zeit, ein bisschen verrückt zu werden und mit verschiedenen Eingabeaufforderungen und Einstellungen für das Modell zu experimentieren.

Natürlich sind die Ergebnisse dieser Bilder nicht perfekt, und jeder, der mich gesehen hat, weiß wahrscheinlich, dass dies nicht „meine“ Bilder sind. Sie sind jedoch nah genug; und ich habe das Modell nicht einmal besonders sorgfältig trainiert.

Wenn ich den unzähligen Anleitungen auf Reddit und anderswo im Internet folgen würde, die darüber sprechen, wie Sie das Training verbessern und bessere Ergebnisse mit Dreambooth und Stable Diffusion erzielen können, wären diese Bilder vielleicht noch realistischer geworden (und wohl gruseliger).

Dieser KI-Bildgenerator ist beängstigend gut

Sehen Sie, ich bin ganz für Verbesserungen in der KI-Technologie. Als Technikjournalist habe ich in den letzten Jahren den sich ständig verändernden und verbessernden Bereich der verbraucherorientierten KI verfolgt und bin größtenteils tief beeindruckt und optimistisch.

Wenn ich jedoch so etwas wie Dreambooth in Aktion sehe, wundere ich mich über die unethischen Wege, auf denen KI-und ML-basierte Tools praktisch jedem mit Zugang zu einem Computer und dem Internet zur Verfügung stehen.

Es steht außer Frage, dass es viele schlechte Schauspieler auf der Welt gibt. Obwohl es definitiv unschuldige Anwendungsfälle für solch leicht zugängliche Technologie gibt, wenn ich eines in meinen Jahren der Berichterstattung über Technologie gelernt habe, dann ist es, dass es zweifellos zu vielen unerwünschten Ergebnissen führen wird, wenn ein Produkt in die Hände von Millionen von Menschen gegeben wird. Bestenfalls etwas Unerwartetes und schlimmstenfalls etwas absolut Ekelhaftes.

Die Fähigkeit, Deepfake-Bilder von so ziemlich jedem zu erstellen, solange Sie 5 bis 10 Bilder ihres Gesichts beschaffen können, ist bei falscher Verwendung unglaublich gefährlich. Denken Sie an Fehlinformationen, Falschdarstellungen und sogar Rachepornos – Deepfakes können auf all diese problematischen Arten verwendet werden.

Schutzmaßnahmen? Was für Safegaurds?

Es ist auch nicht nur Dreambooth. An sich sind Dreambooth und Stable Diffusion, gut eingesetzt, unglaubliche Tools, mit denen wir erfahren können, was KI leisten kann. Aber es gibt keine wirklichen Sicherheitsvorkehrungen für diese Technologie nach dem, was ich bisher erlebt habe. Sicher, es wird Ihnen nicht erlauben, völlige Nacktheit in Bildern zu erzeugen; zumindest standardmäßig. Es gibt jedoch viele Erweiterungen, mit denen Sie auch diesen Filter umgehen und so ziemlich alles erstellen können, was Sie sich vorstellen können, basierend auf der Identität einer Person.

Auch ohne solche Erweiterungen können Sie problemlos Tools wie dieses erhalten, um eine breite Palette potenziell verstörender und anrüchiger Bilder von Personen zu erstellen.

Darüber hinaus kann man mit einem anständig leistungsstarken PC seine eigenen KI-Modelle ohne jegliche Sicherheitsvorkehrungen und basierend auf den Trainingsdaten, die man verwenden möchte, trainieren – was bedeutet, dass das trainierte Modell Bilder erzeugen kann, die vernichtend sein können und unvorstellbar schädlich.

Deepfakes sind nichts Neues. Tatsächlich gibt es online eine riesige Fundgrube an Deepfake-Videos und-Medien. Bis vor kurzem war die Erstellung von Deepfakes jedoch auf eine relativ kleine (wenn auch immer noch große) Anzahl von Personen beschränkt, die in der Schnittmenge von „Menschen mit fähiger Hardware“ und dem „technischen Know-how“ existierten.

Jetzt, mit Zugang zu kostenlosen (begrenzt nutzbaren) GPU-Recheneinheiten auf Google Colab und der Verfügbarkeit von Tools wie Fast-Dreambooth, mit denen Sie KI-Modelle auf Googles Servern trainieren und verwenden können, wird diese Anzahl von Menschen dies tun gehen exponentiell nach oben. Das hat es wahrscheinlich schon – das macht mir Angst, und das sollte es auch für Sie sein.

Was können wir tun?

Das ist die Frage, die wir uns an dieser Stelle stellen sollten. Tools wie DALL-E, Midjourney und ja, Dreambooth und Stable Diffusion sind sicherlich beeindruckend, wenn sie mit dem üblichen menschlichen Anstand verwendet werden. Die KI verbessert sich sprunghaft – das können Sie wahrscheinlich erkennen, wenn Sie sich die Explosion von KI-bezogenen Nachrichten in den letzten Monaten ansehen.

Das ist also ein entscheidender Punkt, an dem wir Wege finden müssen, um sicherzustellen, dass KI ethisch einwandfrei eingesetzt wird. Wie wir das anstellen können, ist eine Frage, auf die ich nicht sicher bin, ob ich die Antwort habe, aber ich weiß, dass ich, nachdem ich den Fast-Dreambooth-KI-Bildgenerator verwendet und seine Fähigkeiten gesehen habe, Angst davor habe, wie gut er ist , ohne sich zu sehr anzustrengen.

3 Kommentare

Letztes Jahr hat MSI das Titan GT77 mit dem Intel Core i9-12900HX und der RTX 3080 Ti Laptop-GPU auf den Markt gebracht, und es war das leistungsstärkste Gaming-Laptop der Welt. Es war der schwerste Schlagmann […]

Es ist ein paar Monate her, seit die iPhone 14-Serie auf den Markt kam, und es ist allgemein bekannt, dass es das Jahr der Pro-Modelle ist. Aber wenn Sie beabsichtigen, sich für die ausgefallenen Profis zu entscheiden, ist die Menge zu schälen […]

Wondershare hat in den letzten Jahren einige der besten Software und Tools entwickelt, um unser Leben und unsere kreativen Bemühungen zu vereinfachen. Insbesondere Wondershare Filmora hat zahlreiche Auszeichnungen erhalten. Es wurde mit dem Video Editing Leader Award ausgezeichnet […]

Categories: IT Info