Samsung заборонила працівникам користуватися чат-ботами на основі ШІ після витоку конфіденційних даних
Компанія Samsung заборонила своїм працівникам користуватися ChatGPT чат-ботами на основі штучного інтелекту через витік конфіденційних даних
Про це інформує Bloomberg.
Зазначають, що в компанії стурбовані тим, що платформи на основі штучного інтелекту можуть зберігати конфіденційні дані на зовнішніх серверах. Це, імовірно, ускладнює пошук і видалення цих даних. Також збереження на зовнішніх серверах може призвести до витоку даних.
Так у квітня Samsung провела опитування серед працівників щодо внутрішнього використання штучного інтелекту. Згідно з результатами, 65% респондентів вважають, що ШІ становить загрозу безпеці даних. Також минулого місяця інженери компанії випадково завантажили в ChatGPT внутрішній вихідний код. Чи поширювалися кудись інформація, невідомо.
Представники Samsung підтвердили, що надіслали працівникам записку про заборону використання генеративних служб ШІ. Нові правила передбачають заборону на використання ШІ на комп'ютерах, планшетах і телефонах, які належать компанії. Також заборонено використовувати його на пристроях, які належать компанії. Це не стосуватиметься пристроїв, які продаються споживачам.
Також компанія попросила працівників, які використовують ChatGPT та інші інструменти на основі ШІ на особистих пристроїв, не завантажувати туди інформацію, пов'язаною з компанією, або особисті дані, які можуть розкрити інтелектуальну власність компанії. Порушення цієї політики може призвести до звільнення.
- 26 грудня 2022 року Samsung Electronics заявила, що планує наступного року збільшити потужності з виробництва мікросхем на своєму найбільшому заводі у Південній Кореї, попри прогнози економічного спаду.
- Актуальне
- Важливе