Nowy wymiar przestępstw na wnuczka? W Kanadzie wykorzystano SI by wykorzystać cudzy głos

i

Autor: PIxabay

Nowy wymiar przestępstw "na wnuczka"? W Kanadzie wykorzystano SI by wykorzystać cudzy głos

2023-03-07 13:26

Wyłudzenia, podczas których przestępcy wykorzystują emocje ofiar podając się za krewnych w potrzebie to wyjątkowo obrzydliwa sprawa. Niestety właśnie "odkryli" możliwości sztucznych inteligencji, które potrafią uczyć się syntezy mowy w brzmieniu danego głosu. Dzięki temu przestępca będzie dosłownie brzmiał jak krewny ofiary wyłudzenia.

Z każdym nowym narzędziem jest tak samo: młotkiem można kogoś uderzyć lub coś zbudować, komputer może odpalić bombę, albo pomóc opracować lek na śmiertelną chorobę. Ostatnia eksplozja zainteresowania sztucznymi inteligencjami objęła także tych, którzy z ich pomocą planują okradać innych. Niestety wraz z rozwojem technologii nie jesteśmy w stanie dotrzymać tempa z zabezpieczaniem się.

The Washington Post przytacza historię 73-letniej Kanadyjki, która w słuchawce telefonu usłyszała głos swojego wnuka. Prosił o pieniądze potrzebne na kaucję, by wyjść z aresztu. Jak donosi kobieta nie był to głos podobny do jej bliskiego, to był dosłownie on. Problem w tym, że przy poziomie i dostępności dzisiejszego oprogramowania nie jest to takie trudne, o ile przestępcy mieli próbki głosu prawdziwego wnuka. Zdobycie takich też przecież nie jest kłopotliwe.

Starsza pani pobiegła wraz z mężem do banku i wyjęła całe oszczędności, 3 tysiące dolarów kanadyjskich. Na szczęście menadżer placówki zaczął podejrzewać, że coś jest nie tak i ostrzegł parę, że jego znajomy odebrał podobny telefon, który okazał się oszustwem. Dzięki czujności menadżera para nie straciła oszczędności.

Jednak nie każda tego typu historia dobrze się kończy. To samo medium przytacza opowieść 39-latka z USA. Jego rodzice zostali oszukiwani na 21 tysięcy dolarów. Najpierw zadzwonił do nich ktoś podający się za prawnika i przekonujący, że dzwoni w imieniu syna, który wpadł w poważne tarapaty. Młodzieniec miał w wypadku samochodowym spowodować śmierć dyplomaty. Następnie podał słuchawkę sfałszowanemu głosowi syna, który był tak dobrze podrobiony, że przekonał rodziców. Wysłali pieniądze na działalność prawnika, który miał wyciągnąć syna z kłopotów i nigdy już nie usłyszeli ani o nim, ani o sprawie, ani o pieniądzach.

To, że przestępcy wykorzystują najnowsze technologie nie jest niczym nowym, jednak pozostaje jedno ważne pytanie: w jaki sposób są w stanie pozyskać nasz głos by stworzyć taką symulację? Odpowiedź jest banalnie prosta. Tak jak kiedyś włamywacze śledząc nasze profile na Facebooku mogli dowiedzieć się kiedy jesteśmy na wakacjach i zaplanować skok, tak oszuści mogą po prostu wejść na TikToka i posłuchać głosu użytkowników, którzy zostawiają tam codziennie mnóstwo treści. Krótki filmik, gdzie opowiadamy jak nam minął dzień, albo czy podobał nam się film wystarczy by za pomocą tych 30 sekund dać algorytmowi materiał do podrobienia brzmienia naszego głosu.

Jedyne, co można zrobić to rozmawiać z bliskimi i uczulać ich by w razie otrzymania jakiejkolwiek nagłej wiadomości, która zachęca ich do oddawania komuś pieniędzy albo przekazywania hasła lub kontroli nad pulpitem komputera – nigdy nie podejmowali decyzji od razu, tylko skontaktowali się z kimś, kto pomoże im zweryfikować sprawę, na przykład innym członkiem rodziny. Oszuści najczęściej wmawiają, że trzeba działać natychmiast, „bo inaczej...” To pierwsza rzecz, która powinna zapalać w głowie czerwoną lampkę ostrzegawczą.

Ikoniczne rockowe teledyski. Te klipy przeszły do historii