Technologia szybko się rozwija, a jednym z obszarów, na który zwraca się uwagę, jest sztuczna inteligencja. Jednak nie wszyscy są zadowoleni z implikacji tych postępów. Samsung Electronics Co., jedna z największych firm technologicznych na świecie, zakazała swoim pracownikom korzystania z popularnych generatywnych narzędzi AI. Decyzja zapadła po tym, jak firma odkryła, że ​​na platformę został przesłany wrażliwy kod. Może to prowadzić do naruszenia bezpieczeństwa.

Samsung zabrania pracownikom korzystania z narzędzi sztucznej inteligencji, takich jak ChatGPT, ze względów bezpieczeństwa

Korzystanie z generatywnych platform sztucznej inteligencji, takich jak ChatGPT rozwija się, zarówno wewnętrznie, jak i zewnętrznie. Samsung obawia się jednak zagrożeń związanych z taką technologią. Dane przesyłane na zewnętrzne serwery za pośrednictwem tych platform mogą być trudne do odzyskania i usunięcia, co może prowadzić do nieupoważnionego ujawnienia. Firma przeprowadziła ankieta w zeszłym miesiącu. Okazało się, że 65% respondentów uważa, że ​​usługi AI stanowią zagrożenie dla bezpieczeństwa.

Na początku tego roku niektóre banki z Wall Street, w tym JPMorgan Chase & Co., Bank of America Corp. i Citigroup Inc., ograniczyły lub zakazały korzystania z Usługa chatbota OpenAI z powodu podobnych obaw. Inne firmy również zabroniły korzystania z ChatGPT ze względu na obawy dotyczące prywatności, chociaż później zmieniły swoją decyzję.

Nowa polityka Samsunga zakazuje używania generatywnych systemów sztucznej inteligencji na urządzeniach należących do firmy i sieciach wewnętrznych. Nie dotyczy to jednak urządzeń firmy sprzedawanych konsumentom. Firma ostrzegła również pracowników korzystających z ChatGPT i podobnych narzędzi na urządzeniach osobistych, aby nie przesyłali żadnych informacji związanych z firmą ani danych osobowych, które mogłyby ujawnić jej własność intelektualną.

Nieprzestrzeganie nowych zasad może skutkować sankcjami dyscyplinarnymi działań, w tym rozwiązania stosunku pracy. Firma tworzy własne wewnętrzne narzędzia AI do tłumaczenia i streszczania dokumentów, a także tworzenia oprogramowania. Pracuje również nad sposobami zakazania przesyłania poufnych informacji firmowych do usług zewnętrznych.

ChatGPT, platforma, która spowodowała naruszenie, dodała tryb „incognito”, który pozwala użytkownikom blokować czaty przed używany do szkolenia modeli AI. Samsung dokonuje przeglądu środków bezpieczeństwa w celu stworzenia bezpiecznego środowiska do wykorzystania generatywnej sztucznej inteligencji w celu zwiększenia produktywności i wydajności pracowników. Do czasu wprowadzenia tych środków firma tymczasowo ograniczyła korzystanie z generatywnej sztucznej inteligencji.

Gizchina Wiadomości tygodnia

Ryzyko związane z przechowywaniem danych na serwerach zewnętrznych i przypadkowe wycieki skłaniają firmę Samsung do podjęcia działań

Decyzja firmy Samsung to znaczące utrudnienie w rozpowszechnianiu technologii generatywnej sztucznej inteligencji w miejscu pracy. Jednak nie jest to jedyna firma, która wyraża zaniepokojenie ryzykiem związanym z tą technologią. Wykorzystanie platform sztucznej inteligencji szybko rośnie, a firmy muszą zrównoważyć potencjalne korzyści z potencjalnym ryzykiem.

Ponieważ technologia wciąż się rozwija, firmy muszą zachować czujność w zakresie zagrożeń związanych z nowymi technologiami. Korzystanie z platform AI może być korzystne, ale firmy muszą upewnić się, że korzystają z nich w sposób odpowiedzialny i podejmują odpowiednie środki w celu ochrony wrażliwych danych. Decyzja Samsunga o zakazie używania generatywnych narzędzi AI to krok we właściwym kierunku. Inne firmy mogą pójść w ich ślady.

Jednym z potencjalnych rozwiązań zagrożeń bezpieczeństwa związanych z generatywnymi platformami sztucznej inteligencji jest opracowanie bezpiecznych narzędzi wewnętrznych. Tworząc własne wewnętrzne narzędzia sztucznej inteligencji, firmy mogą zapewnić, że wrażliwe dane pozostaną w ich własnej sieci. Zmniejszenie ryzyka nieautoryzowanego dostępu. Ponadto firmy mogą dostosowywać te narzędzia do swoich konkretnych potrzeb, co może nie być możliwe w przypadku platform zewnętrznych. Chociaż opracowanie tych narzędzi może wymagać dodatkowych zasobów, długoterminowe korzyści mogą przewyższać koszty pod względem poprawy bezpieczeństwa i produktywności. Samsung już podejmuje kroki w tym kierunku. Inne firmy mogą pójść w ich ślady, ponieważ obawy dotyczące zagrożeń bezpieczeństwa związanych z platformami sztucznej inteligencji wciąż rosną.

Podsumowując, decyzja Samsunga o zakazie używania generatywnych narzędzi sztucznej inteligencji jest znaczącym niepowodzeniem w rozpowszechnianiu takiej technologii w miejscu pracy. Jest to jednak niezbędny krok w celu wyeliminowania zagrożeń bezpieczeństwa związanych z tymi platformami. Firmy muszą zachować czujność w zakresie zagrożeń związanych z nowymi technologiami i podejmować odpowiednie środki w celu ochrony wrażliwych danych. Ponieważ technologia wciąż się rozwija, konieczne jest znalezienie równowagi między potencjalnymi korzyściami a ryzykiem związanym z nowymi technologiami.

Źródło/VIA:

Categories: IT Info