La technologie progresse rapidement, et l’un des domaines qui attirent l’attention est l’intelligence artificielle. Cependant, tout le monde n’est pas à l’aise avec les implications de ces avancées. Samsung Electronics Co., l’une des plus grandes entreprises technologiques au monde, a interdit l’utilisation d’outils d’IA générative populaires par ses employés. La décision est intervenue après que l’entreprise a découvert qu’un code sensible avait été téléchargé sur la plate-forme. Cela pourrait entraîner une faille de sécurité.
Samsung interdit l’utilisation d’outils d’IA comme ChatGPT par les employés pour des raisons de sécurité
L’utilisation de plateformes d’IA génératives comme ChatGPT s’est développé, à la fois en interne et en externe. Cependant, Samsung est préoccupé par les risques associés à une telle technologie. Les données transmises à des serveurs externes via ces plateformes peuvent être difficiles à récupérer et à supprimer, ce qui peut entraîner une divulgation non autorisée. La société a mené une enquête le mois dernier. Il a révélé que 65 % des personnes interrogées pensaient que les services d’IA constituaient un risque pour la sécurité.
Plus tôt cette année, certaines banques de Wall Street, dont JPMorgan Chase & Co., Bank of America Corp. et Citigroup Inc., ont restreint ou interdit l’utilisation de Le service de chatbot d’OpenAI en raison de problèmes similaires. D’autres entreprises ont également interdit l’utilisation de ChatGPT par crainte de confidentialité, bien qu’elles soient ensuite revenues sur leur décision.
La nouvelle politique de Samsung interdit l’utilisation de systèmes d’IA générative sur les appareils et les réseaux internes appartenant à l’entreprise. Cependant, cela n’affecte pas les appareils de l’entreprise vendus aux consommateurs. L’entreprise a également averti les employés qui utilisent ChatGPT et des outils similaires sur des appareils personnels de ne pas soumettre d’informations relatives à l’entreprise ou de données personnelles qui pourraient révéler sa propriété intellectuelle.
Le non-respect des nouvelles politiques pourrait entraîner des sanctions disciplinaires. action, y compris la cessation d’emploi. L’entreprise crée ses propres outils d’IA internes pour la traduction et la synthèse de documents, ainsi que le développement de logiciels. Il travaille également sur les moyens d’interdire le téléchargement d’informations sensibles sur l’entreprise vers des services externes.
ChatGPT, la plate-forme à l’origine de la violation, a ajouté un mode”incognito”qui permet aux utilisateurs d’empêcher leurs chats d’être utilisé pour la formation de modèles d’IA. Samsung examine les mesures de sécurité afin de créer un environnement sécurisé pour l’utilisation de l’IA générative afin d’améliorer la productivité et l’efficacité des employés. Jusqu’à ce que ces mesures soient en place, l’entreprise a temporairement restreint l’utilisation de l’IA générative.
Gizchina News of the week
Les risques de stockage de données sur des serveurs externes et les fuites accidentelles incitent Samsung à agir
La décision de Samsung est un revers important pour la diffusion de la technologie d’IA générative sur le lieu de travail. Cependant, ce n’est pas la seule entreprise à s’inquiéter des risques de la technologie. L’utilisation des plateformes d’IA se développe rapidement et les entreprises doivent équilibrer les avantages potentiels avec les risques potentiels.
Alors que la technologie continue de progresser, les entreprises doivent rester vigilantes quant aux risques associés aux nouvelles technologies. L’utilisation de plateformes d’IA peut être bénéfique, mais les entreprises doivent s’assurer qu’elles les utilisent de manière responsable et prennent les mesures appropriées pour protéger les données sensibles. La décision de Samsung d’interdire l’utilisation d’outils d’IA générative est un pas dans la bonne direction. Et d’autres entreprises pourraient emboîter le pas.
Une solution potentielle aux risques de sécurité associés aux plates-formes d’IA génératives est le développement d’outils internes sécurisés. En créant leurs propres outils d’IA internes, les entreprises peuvent s’assurer que les données sensibles restent au sein de leur propre réseau. Réduire le risque d’accès non autorisé. De plus, les entreprises peuvent adapter ces outils à leurs besoins spécifiques, ce qui peut ne pas être possible avec des plateformes externes. Bien que le développement de ces outils puisse nécessiter des ressources supplémentaires, les avantages à long terme peuvent l’emporter sur les coûts en termes d’amélioration de la sécurité et de la productivité. Samsung prend déjà des mesures dans ce sens. Et d’autres entreprises pourraient emboîter le pas alors que les inquiétudes concernant les risques de sécurité associés aux plates-formes d’IA continuent de croître.
En conclusion, la décision de Samsung d’interdire l’utilisation d’outils d’IA générative est un revers important pour la diffusion de cette technologie. sur le lieu de travail. Cependant, il s’agit d’une étape nécessaire pour faire face aux risques de sécurité associés à ces plateformes. Les entreprises doivent rester vigilantes sur les risques liés aux nouvelles technologies et prendre les mesures appropriées pour protéger les données sensibles. Alors que la technologie continue de progresser, il est essentiel de trouver un équilibre entre les avantages potentiels et les risques associés aux nouvelles technologies.
Source/VIA :