Samsung bannit ChatGPT pour éviter que ses secrets s’ébruitent
Craignant que ses employés envoient des données sensibles dans ChatGPT et les autres IA génératives, Samsung fixe de nouvelles règles. Les chatbots ne sont plus autorisés sur les appareils professionnels.
Aux grands maux, les grands remèdes. Confrontée à une fuite d’informations sensibles dans ChatGPT, l’entreprise sud-coréenne Samsung a décidé de bannir purement et simplement l’accès au chatbot pour son personnel. C’est ce que révèle Bloomberg dans son édition du 2 mai 2023, en s’appuyant sur un mémo interne que le média a pu consulter.
Les restrictions édictées par le géant asiatique des nouvelles technologies visent, à vrai dire, les intelligences artificielles génératives et pas que l’agent conversationnel conçu par OpenAI. La société entend aussi restreindre l’usage de ChatGPT sur Bing (le moteur de recherche utilise une version plus évoluée du chatbot), ainsi que Google Bard, un concurrent direct.
Éviter d’envoyer des données confidentielles dans ChatGPT
À l’origine du serrage de vis décidé par le groupe basé à Suwon se trouve une erreur commise par des ingénieurs. En utilisant ChatGPT, ils ont malencontreusement mis des données confidentielles dans le chatbot — il s’agit de code source interne, mais dont le rôle et la portée ne sont pas clairs. La mauvaise manipulation a eu lieu au début du mois d’avril.
Les nouvelles règles concernent à la fois les matériels professionnels (ordinateurs, tablettes, téléphones), mais aussi les équipements personnels. Dans le premier cas,