Root NationНовиниНовини ITБагато конфіденційних даних все ще публікуються в ChatGPT

Багато конфіденційних даних все ще публікуються в ChatGPT

-

Нові дані компанії Netskope стверджують, що працівники продовжують ділитися конфіденційною інформацією компанії з розробниками ШІ та чат-ботами, такими як ChatGPT, незважаючи на очевидний ризик витоку або зламу.

ChatGPT

Дослідження охопило близько 1,7 мільйона користувачів у 70 міжнародних організаціях і виявило, що в середньому на 10 000 користувачів щомісяця припадає 158 випадків публікації вихідного коду в ChatGPT, що робить його найбільш вразливим місцем компанії, випереджаючи інші типи конфіденційних даних.

Хоча випадки публікації регульованих даних (18 випадків на 10 000 користувачів на місяць) та інтелектуальної власності (чотири випадки на 10 000 користувачів на місяць) в ChatGPT трапляються набагато рідше, очевидно, що багато розробників просто не усвідомлюють, якої шкоди може завдати витік вихідного коду.

Поряд з постійними витоками, які можуть призвести до слабких місць в роботі підприємств, Netskope також підкреслила бум інтересу до штучного інтелекту. Цифри вказують на 22,5% зростання використання застосунків GenAI за останні два місяці, причому великі підприємства з більш ніж 10 000 користувачів використовують в середньому п’ять програм ШІ щодня.

Лідером є ChatGPT, на який припадає у вісім разів більше щоденних активних користувачів, ніж на будь-який інший застосунок GenAI. Щодня отримуючи в середньому шість підказок, кожен користувач може завдати значної шкоди своєму роботодавцю.

Замикають трійку лідерів серед застосунків генеративного ШІ, що використовуються організаціями в усьому світі, окрім ChatGPT (84%), Grammarly (9,9%) і Bard (4,5%), який сам переживає здорове зростання на 7,1% на тиждень порівняно з 1,6% на тиждень для ChatGPT.

Багато хто стверджує, що завантаження вихідного коду або іншої конфіденційної інформації можна уникнути, але директор з досліджень загроз Netskope Рей Канзанезе каже, що це “неминуче”. Натомість Канзанезе покладає на організації відповідальність за впровадження контролю над штучним інтелектом.

ChatGPT

Джеймс Робінсон, заступник директора з інформаційної безпеки компанії, додав: “Організаціям слід зосередитися на підвищенні рівня обізнаності персоналу та політиці роботи з даними, щоб задовольнити потреби працівників, які продуктивно використовують продукти ШІ”.

Адміністраторам та ІТ-командам компанія пропонує блокувати доступ до непотрібних застосунків або тих, що становлять непропорційний ризик, проводити часті інструктажі для користувачів і впроваджувати достатню кількість сучасних технологій запобігання втраті даних.

Читайте також:

ДжерелоTechradar
Підписатися
Сповістити про
guest

0 Comments
Новіші
Старіші Найпопулярніші
Вбудовані Відгуки
Переглянути всі коментарі
Підписатися на оновлення