Ison-Britannian kansallinen kyberturvallisuuskeskus (NCSC) varoittaa yleisöä ChatGPT:n vaaroista. Tämä tekoälymalli nousi suosioon sen jälkeen, kun se lanseerattiin muutama kuukausi sitten. Sen jälkeen, kun se tuli yleisön saataville, joukko ihmisiä testasi sen kykyjä eri tavoin.

Jotkut ihmiset pyysivät reseptejä tiettyihin ruokiin, vastauksia tehtävään liittyviin kysymyksiin ja muita satunnaisia ​​kysymyksiä. Tämän tekoälymallin vastaus erilaisiin sen esittämiin kysymyksiin hämmästytti monia ihmisiä. Tästä syystä useammat ihmiset halusivat kokeilla ChatGPT:tä, mikä lisäsi sen suosiota.

Nyt järjestelmä, jossa tämä tekoälymalli toimii, on saanut päivityksen. GPT-4-järjestelmä tuo parannuksia useiden siihen perustuvien tekoälymallien keskustelukykyyn. Onko tämän tekoälymallin yleistyessä yhteiskunnalle vaaraa? äskettäinen päivitys korostaa muutamia katsotaanpa näitä vaaroja tarkasti.

National Cyber ​​Security Centerin (NCSC) mukaan tässä ovat ChatGPT:n vaarat

Ison-Britannian kansallinen kyberturvallisuuskeskus (NCSC) on varoittanut yleisöä ChatGPT:n vaaroista. He tekivät tämän äskettäin kirjoittamassa blogissa postaa viralliselle verkkosivustolleen, jossa he tutustuivat ChatGPT:hen ja suuriin kielimalleihin (LLM).

Näiden tekoälymallien suosion kasvaessa on tiedettävä niiden riskit. saattaa poseerata. No, Ison-Britannian kansallinen kyberturvallisuuskeskus (NCSC) on tehnyt tutkimuksen auttaakseen valistamaan yleisöä. Havainnoistaan ​​ChatGPT:n ja muiden LLM-yritysten käyttäjät saavat tietää, mitä suuria yrityksiä näiden tekoälymallien kanssa kannattaa ottaa.

Yksi ​​ensimmäisistä tekoälymallien yhteydessä huomioivista havainnoista on, että ne saattavat olla harhaanjohtavaa. Jotkut tiedot, jotka he antavat käyttäjien pyyntöihin, voivat olla vääriä, puolueellisia, väkivaltaisia ​​jne. Tästä syystä ChatGPT:n ja muiden LLM:iden käyttäjien tulee olla tietoisia näiden tekoälymallien kautta kuluttamastaan ​​sisällöstä.

Siellä on myös tarve olla varovainen näiden alustojen kanssa jakamasi tiedon suhteen. National Cyber ​​Security Center (NCSC) suosittelee olemaan jakamatta arkaluonteisia tietoja ChatGPT tai muiden LLM-yritysten kanssa. Nämä alustat eivät välttämättä paljasta käyttäjätietoja, mutta niillä on pääsy käyttäjien kyselyihin ja ne voidaan hakkeroida, mikä paljastaa nämä kyselyt yleisölle.

Tästä syystä yritä olla esittämättä tällaisille alustoille melko arkaluonteisia kysymyksiä. henkilökohtaiseen elämääsi tai työhösi. ChatGPT:n ja muiden LLM:ien vaarat sisältävät myös sen, kuinka verkkorikolliset ja huonot toimijat voivat käyttää sitä. Joten kun kokeilet uusia tai olemassa olevia suuria kielimalleja, on tärkeää ymmärtää niiden aiheuttamat riskit.

Categories: IT Info