У ЄС створять робочу групу для розробки правил конфіденційності для ChatGPT
Європейська служба захисту конфіденційності створює робочу групу для розробки спільних правил конфіденційності для штучного інтелекту, зокрема для ChatGPT
Про це інформує Reuters,
Зазначають, що експерти, уряд США та низка інших європейських урядів висловили занепокоєння щодо швидкого впровадження ChatGPT та інших ШІ. Так члени Європейської служби захисту конфіденційності обговорили нещодавні заходи, які вижив стосовно ChatGPT італійській орган із захисту даних.
"Європейська служба захисту конфіденційності вирішила створити спеціальну робочу групу для сприяння співпраці та обміну інформацією щодо можливих примусових дій, які проводять органи із захисту даних", - пише видання.
Наголошують, що країни ЄС не планують карати чи якось впливати на компанії OpenAI. Натомість учасники організації прагнуть узгодити свої політичні позиції щодо ChatGPT.
- Італійська служба захисту даних заборонила доступ до чат-бота OpenAI зі штучним інтелектом ChatGPT, посилаючись на ймовірні порушення конфіденційності.
- У Китаї заборонили користування чат-ботом зі штучним інтелектом Chat-GPT, а регуляторам наказали не пропонувати його послуги, зважаючи на нецензуровані відповіді на запитання користувачів.
- Згодом у Вашингтоні почали досліджувати можливі заходи для регулювання систем штучного інтелекту (ШІ), як от ChatGPT, оскільки виникають питання щодо його впливу на національну безпеку та освіту.
- Актуальне
- Важливе