Twitter rozpoczyna walkę z obrazami generowanymi przez sztuczną inteligencję za pomocą Notatki społeczności dotyczące obrazów. Ta funkcja jest obecnie w fazie testów i pomoże użytkownikom Twittera zidentyfikować obrazy generowane przez sztuczną inteligencję. W ciągu ostatnich kilku miesięcy wielu użytkowników zakochało się w tych obrazach, które są wytworami modeli sztucznej inteligencji.
Ta funkcja to tylko jedno narzędzie w arsenale Twittera, które wykorzysta do walki z wprowadzającymi w błąd mediami. Niektórzy złoczyńcy korzystający z platformy Twitter docierają do milionów użytkowników za pomocą obrazów generowanych przez sztuczną inteligencję, twierdząc, że są one dowodem działań, które nigdy nie miały miejsca. Celem tych wysiłków jest wprowadzenie ludzi w błąd i może to być szkodliwe dla globalnej społeczności.
Gdy te obrazy trafią na Twittera za pośrednictwem postów, niczego niepodejrzewający użytkownicy mogą łatwo udostępnić je innym. To pomaga wprowadzającym w błąd informacjom rozprzestrzeniać się lotem błyskawicy, a tym samym warzyć fałszywe wyobrażenia o jednostce lub grupie. Notatki społeczności Twitter dotyczące obrazów są teraz dostępne, aby przeciwdziałać rozprzestrzenianiu się takich obrazów wśród milionów ludzi korzystających z platformy mediów społecznościowych.
Twitter ma na celu ograniczenie rozpowszechniania obrazów generowanych przez sztuczną inteligencję za pomocą funkcji Notatki społeczności dotyczące obrazów
Notatki społeczności Twittera strona niedawno opublikowała post dotyczący obrazów generowanych przez sztuczną inteligencję. Tego typu obrazy stają się coraz bardziej powszechne na platformach mediów społecznościowych i często wprowadzają w błąd wielu użytkowników. Twitter zwrócił na to uwagę i teraz daje grupie użytkowników możliwość oflagowania tego typu postów w celu poinformowania innych użytkowników.
W tej chwili Twitter mający złe intencje jest łatwy użytkownika do użycia dowolnego modelu AI do wygenerowania zdjęcia czegokolwiek. Wystarczy, że opowiedzą, jak zdjęcie ma wyglądać i jakie elementy powinno posiadać. Następnie model AI zaczyna działać i tworzy niemal realistyczny obraz w oparciu o specyfikacje użytkowników.
Uzbrojony w ten obraz użytkownik o złych intencjach może następnie opublikować obraz na Twitterze z wprowadzającym w błąd opisem. Inni użytkownicy Twittera, którzy zobaczą ten post, mogą uwierzyć w wprowadzający w błąd opis i przesłać dalej lub polubić post, tym samym rozpowszechniając go wśród milionów. Teraz Twitter umożliwia współtwórcom na swojej platformie oflagowanie tych wprowadzających w błąd obrazów i filmów generowanych przez sztuczną inteligencję.
Dzięki notatom społeczności na Twitterze dotyczącym obrazów współtwórcy z wysokimi ocenami będą mogli oflagować sztuczną inteligencję-wygenerowane obrazy. Obecnie ta funkcja jest w fazie testów i pozwala współtwórcom oflagować te obrazy innym użytkownikom. Aby oflagować te obrazy, współtwórcy z wysokimi ocenami dodadzą opisy do obrazu, które będą widoczne dla innych użytkowników Twittera.
Po ustawieniu opisów algorytm Twittera dopasowuje wszystkie posty tego obrazu na stronie platforma z opisem. Jeśli inny użytkownik ponownie opublikuje obraz, pojawi się on z opisem, oznaczając go jako obraz wygenerowany przez sztuczną inteligencję. Jednak ta funkcja musi dobrze działać podczas testów, zanim zostanie udostępniona publicznie.