Chatboty, takie jak ChatGPT, potrafią trafnie zgadywać dane osobowe użytkowników na podstawie pozornie niewinnych rozmów. Nowe badania wyjawiają, że rozmowa z chatbotem może ujawnić wiele wrażliwych informacji.
Algorytmy szkolenia chatbotów utrudniają ochronę prywatności
Badacze z ETH Zurich zauważyli, że algorytmy szkolenia modeli AI, takich jak ChatGPT, korzystają z szerokich fragmentów treści internetowych, co sprawia, że ochrona prywatności staje się wyzwaniem. Problem ten wydaje się fundamentalny i trudny do rozwiązania.
Przeczytaj także: Sztuczna Inteligencja i Chat GPT. Jak chronić dane osobowe?
Potencjalne zagrożenia
Martin Vechev i jego zespół zauważyli, że zdolność chatbotów do zgadywania wrażliwych informacji może być wykorzystana przez oszustów do pozyskiwania danych od nieświadomych użytkowników.
Ponadto, firmy reklamowe mogą wykorzystać te informacje do tworzenia szczegółowych profili użytkowników, co stanowi potencjalne zagrożenie dla prywatności.
Reakcje firm tworzących modele
Badacze z Zurychu przetestowali modele językowe od takich gigantów jak OpenAI, Google, Meta i Anthropic, informując jednocześnie firmy o problemie. Odpowiedzi firm na problem różnią się, a środki podjęte przez nie w celu ochrony prywatności są różnorodne.
Przeczytaj także: Meta zapłaci 1,2 mld euro
Jak modele językowe odczytują informacje – przykłady i ryzyko
Przykłady zebrane z eksperymentów na platformie Reddit pokazują, że modele językowe potrafią dokładnie wywnioskować informacje osobiste, nawet z pozornie neutralnych rozmów. Przykłady te podkreślają ryzyko, które wiąże się z tym, jak precyzyjnie AI może zgadywać dane użytkowników na podstawie ich tekstu.
Czy możliwe jest znalezienie rozwiązania?
Badacze z ETH Zurich podkreślają trudność znalezienia rozwiązania dla problemu ochrony prywatności w kontekście chatbotów. Mówią, że zdolność modeli językowych do wnioskowania na podstawie subtelnych wskazówek sprawia, że znalezienie skutecznego rozwiązania jest znacznie bardziej skomplikowane niż w przypadku innych problemów związanych z ochroną prywatności.
Źródło: Wired
| Redakcja BPPZ.pl