AI podaje tajemnice firm. Ma je od pracowników
Co czwarte zapytanie wprowadzone przez pracowników do narzędzi generatywnej sztucznej inteligencji zawiera dane, które powinny być chronione - informuje "Rzeczpospolita" w poniedziałkowym wydaniu.
- Liczba firm korzystających z chatbotów dynamicznie rośnie, zecydowanie szybciej niż świadomość pracowników o potencjalnych zagrożeniach związanych z wykorzystaniem takich narzędzi - informuje " Rzeczpospolita ". Według badań Cyberhaven Labs ilość danych wprowadzonych przez pracowników firm do narzędzi generatywnej sztucznej inteligencji od marca 2023 r. w ciągu roku wzrosła o prawie o 600 procent.
- Problem w tym, że pracownicy często używają sztucznej inteligencji z prywatnych kont, co może być zagrożeniem dla firm i instytucji - wskazuje dziennik. Eksperci szacują, że ok 25 proc. informacji wprowadzanych do aplikacji są danymi wrażliwymi, które wypływają poza struktury firmy.
CZYTAJ TEŻ: Wielkie problemy z ChatGPT. Poszkodowani najwięksi wydawcy serwisów internetowych
Prywatność i AI: co radzą eksperci
Analitycy Check Point, firmy z branży cyberochrony twierdzą, że w kwestii ochrony danych wrażliwych nie można ufać dużym modelom językowym (LLM)i sugerują podejście Zero Trust AI - zero zaufania do sztucznej inteligencji.
Rzeczpospolita podkreśla także, iż "44 procent menadżerów firm obawia się o bezpieczeństwo i prywatność przy wykorzystaniu AI w biznesie"
Dołącz do dyskusji: AI podaje tajemnice firm. Ma je od pracowników