Tech.BiznesINFO.pl > Cyberbezpieczeństwo > Głos Aleksandra Kwaśniewskiego wykorzystany do internetowego oszustwa. Należy zachować szczególną czujność
Maciej Olanicki
Maciej Olanicki 04.11.2023 19:34

Głos Aleksandra Kwaśniewskiego wykorzystany do internetowego oszustwa. Należy zachować szczególną czujność

Aleksander Kwaśniewski
Fot. Roxana Todea na licencji CC BY-NC-SA 2.0 Deed

Na naszych oczach powstaje nowa wariacja zagrożeń w cyberprzestrzeni – oszustwa dokonywane z użyciem mechanizmów deepfake. O ile od dawna już wiadomo, że stanowią one ogromne zagrożenie, to teraz mamy do czynienia z pierwszymi faktycznymi kampaniami. W Polsce do ich realizacji wykorzystano głos Aleksandra Kwaśniewskiego.

Głos byłego prezydenta wykorzystany do oszustwa

Jak zauważył jeden z Czytelników serwisu Niebezpiecznik, w portalu X dystrybuowany jest materiał wideo, w którym wykorzystano wizerunek i głos byłego prezydenta. O ile wizualnie mamy do czynienia ze statyczną fotografią prezentującą prezydenta Kwaśniewskiego podczas rozmowy w studiu radiowym, tak warstwa dźwiękowa została w całości spreparowana z użyciem deepfake.

Z konta noszącego nazwę Automator Design udostępniono materiał, w którym z użyciem głosu Aleksandra Kwaśniewskiego oszuści przekonują, że stworzono świetne warunki inwestycyjne, w których na opłatach za energię można zaoszczędzić nawet 40% miesięcznie. Oczywiście całość jest spreparowana, a wygenerowany materiał ma zmanipulować użytkowników X w taki sposób, aby przekazali oszustom swoje pieniądze pod pretekstem inwestycji.

Platforma Obywatelska wykorzystała deepfake Mateusza Morawieckiego. "Niebezpieczne zjawisko"

Będzie tego znacznie więcej i znacznie skuteczniejsze

Niestety należy spodziewać się, że takich oszustw będzie znacznie więcej. Wizerunek wraz z głosem osób publicznych, zwłaszcza cieszących się wśród Polaków relatywnie dużym autorytetem, stwarza dla napastników ogromne możliwości, otwiera zupełnie nowy kierunek w opracowywaniu skutecznych oszustw. Nie ma wątpliwości, że prędzej czy później będziemy mieli do czynienia z całymi nagraniami wideo sfałszowanymi z użyciem mechanizmów deepfake.

Pewnym pocieszeniem jest, że oszustwo wykorzystujące głos Aleksandra Kwaśniewskiego jest wyjątkowo kiepskiej jakości. Jest to jednak śmiech przez łzy, gdyż przed tym, aby fałszywka była znacznie bardziej przekonująca uchroniła nas tylko nieporadność czy też ogromna skala działalności oszustów. Poza tym nie należy się łudzić, że nie dla każdego sfałszowana wypowiedź Kwaśniewskiego od razu będzie rozpoznawalna jako oszustwo – ofiar zapewne nie braknie.

Jak zaradzić deepfake’om?

Osobny problem stanowi to, że na zalew mediów społecznościowych przez próby oszustw wykorzystujące deepfake’i jesteśmy wyjątkowo słabo przygotowani. Dziurawa moderacja czy będące w powijakach systemy oznaczeń z użyciem znaków wodnych nie będą w stanie wychwycić wszystkich prób. Przez to użytkownicy X czy Facebooka w dużej mierze muszą polegać na sobie samych – zarówno na własnej czujności, jak i na oznaczeniach i zgłoszeniach innych, do czego zachęcamy. Jeśli zatem widzisz materiał wyglądający na deepfake, nie zwlekaj z jego zgłoszeniem administracji.