WASHINGTON (Reuters) – Federalne Biuro Śledcze ostrzegło Amerykanów, że przestępcy coraz częściej wykorzystują sztuczną inteligencję do tworzenia obrazów o charakterze jednoznacznie seksualnym w celu zastraszania i szantażowania ofiar.
W Ostrzeżenie rozesłano w tym tygodniuBiuro poinformowało, że ostatnio odnotowało wzrost liczby ofiar wymuszeń, twierdząc, że były one celem fałszywych kopii niewinnych zdjęć pobranych z postów online, prywatnych wiadomości lub czatów wideo.
„Obrazy są następnie wysyłane bezpośrednio do ofiar przez złośliwych aktorów w celu wymuszenia seksualnego lub nękania” – czytamy w ostrzeżeniu. „Po rozpowszechnieniu ofiary mogą napotkać poważne wyzwania związane z zapobieganiem dalszemu udostępnianiu treści, które zostały zmanipulowane lub usunięte z Internetu”.
Biuro stwierdziło, że obrazy wyglądały na „prawdziwe” i że w niektórych przypadkach celem były dzieci.
FBI nie zagłębiało się w szczegóły oprogramowania ani oprogramowania używanego do tworzenia obrazów seksualnych, ale zauważyło, że postęp technologiczny „stale poprawia jakość, personalizację i dostępność tworzenia treści z obsługą sztucznej inteligencji (AI).
Biuro nie odpowiedziało na list uzupełniający z prośbą o szczegóły dotyczące tego zjawiska w środę.
Manipulowanie niewinnymi zdjęciami w celu uzyskania wyraźnych obrazów seksualnych jest tak stare jak sama fotografia, ale udostępnienie narzędzi AI o otwartym kodzie źródłowym sprawiło, że proces ten jest łatwiejszy niż kiedykolwiek. Wyniki są często nie do odróżnienia od rzeczywistych obrazów, a w ostatnich latach powstało kilka stron internetowych i kanałów mediów społecznościowych specjalizujących się w tworzeniu i wymianie obrazów seksualnych z obsługą sztucznej inteligencji.
Reportaż Raphaela Satera. Montaż przez Davida Gregorio
Nasze standardy: Zasady zaufania Thomson Reuters.
„Nagradzany beeraholik. Fan Twittera. Podróżnik. Miłośnik jedzenia.