CHATGPT. Czy duże modele językowe mogą zagrażać naszemu bezpieczeństwu?
06.04.2023 • Mariusz Mrozek
W odpowiedzi na rosnące zainteresowanie opinii publicznej, skupiające się na możliwościach, jakie daje używanie ChatGPT, Laboratorium Innowacji Europolu zorganizowało szereg warsztatów z udziałem ekspertów merytorycznych z całego Europolu, aby zbadać, w jaki sposób przestępcy mogą nadużywać dużych modeli językowych (LLM), takich jak ChatGPT, a także jak mogą one pomóc śledczym w ich codziennej pracy.
Ich spostrzeżenia zostały zebrane w raporcie Tech Watch Flash Europolu, zatytułowanym „ChatGPT – wpływ dużych modeli językowych na egzekwowanie prawa”. Dokument ten zawiera przegląd potencjalnych nadużyć związanych z ChatGPT i przedstawia spojrzenie na to, co może jeszcze nadejść. Celem jego stworzenia jest podniesienie świadomości na temat potencjalnego niewłaściwego wykorzystania LLM, rozpoczęcie dialogu z firmami zajmującymi się sztuczną inteligencją (AI), aby pomóc im we wprowadzeniu lepszych zabezpieczeń, oraz promowanie rozwoju bezpiecznych i godnych zaufania systemów AI.
Dłuższa i bardziej dogłębna wersja tego raportu została opracowana wyłącznie dla organów ścigania.
Czym są duże modele językowe?
Duży model językowy to rodzaj systemu sztucznej inteligencji, który może przetwarzać, manipulować i generować tekst. Szkolenie LLM polega na dostarczaniu mu dużych ilości danych, takich jak książki, artykuły i strony internetowe, aby mógł nauczyć się wzorów i połączeń między słowami w celu generowania nowych treści.
ChatGPT to LLM, który został opracowany przez OpenAI i udostępniony szerszej publiczności w ramach podglądu badań w listopadzie 2022 roku.
Obecny publicznie dostępny model leżący u podstaw ChatGPT jest w stanie przetwarzać i generować tekst podobny do ludzkiego w odpowiedzi na monity użytkownika. W szczególności model może odpowiadać na pytania dotyczące różnych tematów, tłumaczyć tekst, angażować się w konwersacje („czaty”), generować nowe treści i tworzyć funkcjonalny kod.
Ciemna strona dużych modeli językowych
Ponieważ możliwości LLM, takich jak ChatGPT, są aktywnie ulepszane, potencjalne wykorzystanie tego typu systemów AI przez przestępców stanowi ponurą perspektywę. Wśród wielu obszarów przestępczości zidentyfikowanych przez ekspertów Europolu znajdują się następujące trzy dziedziny, w których byłoby to możliwe:
Oszustwa i socjotechnika: Zdolność ChatGPT do tworzenia wysoce realistycznych tekstów czyni go użytecznym narzędziem do celów phishingu. Zdolność LLM do odtwarzania wzorców językowych może być wykorzystywana do podszywania się pod styl wypowiedzi konkretnych osób lub grup. Zdolność ta może być nadużywana na dużą skalę w celu wprowadzenia w błąd potencjalnych ofiar, które zaufają przestępcom.
Dezinformacja: ChatGPT doskonale radzi sobie z produkcją autentycznie brzmiących tekstów przy zachowaniu szybkości odpowiedzi i na dużą skalę. Dzięki temu model ten jest idealny do celów propagandowych i dezinformacyjnych, ponieważ pozwala użytkownikom generować i rozpowszechniać wiadomości odzwierciedlające określoną narrację przy stosunkowo niewielkim wysiłku.
Cyberprzestępczość: Oprócz generowania języka podobnego do ludzkiego, ChatGPT jest w stanie tworzyć kod w wielu różnych językach programowania. Dla potencjalnego przestępcy o niewielkiej wiedzy technicznej jest to nieocenione źródło tworzenia szkodliwego kodu.
W miarę postępu technologicznego i pojawiania się nowych modeli coraz ważniejsze będzie, aby organy ścigania były na czele tych zmian, aby przewidywać i zapobiegać nadużyciom.
Zalecenia Europolu i pełne wyniki raportu dostępne są na stronie internetowej instytucji pod adresem: https://www.europol.europa. eu/publications-events/publications/chatgpt-impact-of-largelanguage- models-law-enforcement.
Laboratorium Innowacji Europolu
Laboratorium Innowacji Europolu pomaga europejskim organom ścigania w jak najlepszym wykorzystaniu nowych technologii, poprzez znalezienie synergii i opracowanie innowacyjnych rozwiązań w celu poprawy sposobów prowadzenia dochodzeń, śledzenia i rozbijania organizacji terrorystycznych i przestępczych. Laboratorium prowadzi kilka projektów badawczych i koordynuje rozwój narzędzi dochodzeniowych z krajowymi organami ścigania.
Więcej o ChatGPT
ChatGPT – chatbot wykorzystujący model języka GPT-3 opracowany przez OpenAI, służący do generowania odpowiedzi na dane wprowadzane przez użytkownika. Model ten został opracowany na podstawie dużych zbiorów danych, aby prowadzić rozmowę i może angażować się w różne tematy, od ogólnych rozmów po określone obszary wiedzy. ChatGPT został uruchomiony jako prototyp 30 listopada 2022 i zyskał ponad milion użytkowników w ciągu zaledwie 5 dni (dla porównania Netflixowi zajęło to 41 miesięcy, Facebookowi – 10 miesięcy, a Instagramowi – 2,5 miesiąca).
Ważna informacja
LLM wybranym do zbadania w ramach warsztatów był ChatGPT. ChatGPT został wybrany, ponieważ jest to najbardziej popularny i najczęściej używany LLM, który jest obecnie dostępny publicznie. Celem ćwiczenia było zaobserwowanie zachowania programu LLM w konfrontacji z przypadkami użycia w przestępczości i egzekwowaniu prawa. Pomoże to organom ścigania zrozumieć, jakie wyzwania mogą stanowić pochodne i generatywne modele AI.