У компанії зафіксували випадки, коли співробітники завантажували конфіденційний код на платформу. Про це повідомляє bykvu.com з посиланням на Bloomberg.
У компанії стурбовані тим, що дані, які отримують такі чат-боти, як Google Bard і Bing, зберігаються на зовнішніх серверах. Це ускладнює їх пошук і видалення. Крім того, зберігання коду у такому форматі може призвести до того, що вони стануть відомі іншим користувачам.
За результатами опитування всередині компанії, 65% респондентів вважають, що подібні сервіси становлять ризик для безпеки. Минулого місяця інженери Samsung випадково виклали внутрішній вихідний код, завантаживши його в ChatGPT, але, що саме містила ця інформація – невідомо.
Представник Samsung підтвердив, що компанія сповістила співробітників про заборону використання сервісів генеративного ШІ. Рішення стосується роботи на комп’ютерах, планшетах і телефонах компанії, а також в її внутрішніх мережах.
Компанія не забороняє користуватися ШІ для власних цілей, але співробітники не повинні надавати жодної інформації, пов’язаної з Samsung, або персональними даними, які можуть розкрити її інтелектуальну власність. Порушення нових правил може призвести до звільнення.
Не забудьте підписатись на наш телеграм-канал. Там ще більше оперативної інформації!
Стів Джобс ще в 1983 році говорив про технології, які тепер нагадують ChatGPT....
Поява чат-бота ChatGPT від OpenAI застала зненацька найбільші технологічні компанії світу, зокрема Apple. Багато хто кинувся створювати конкурентів і деякі...
Компанія Meta випустила ранні версії своєї великої мовної моделі ШІ Llama 3....
Мільярдер Ілон Маск подав позов проти OpenAI та її генерального директора Сема Альтмана, стверджуючи, що багатомільярдний альянс виробника ChatGPT із...
Прокурори Південної Кореї заявили про висунення обвинувачень колишньому топ-чиновника Samsung за передачу технології виготовлення чіпів Китаю....