Psychoterapeuta diagnozuje SI. Wyniki są niepokojące

i

Autor: Pixabay

Psychoterapeuta diagnozuje SI. Wyniki są niepokojące

2023-02-24 14:17

Rozmawiamy z nimi, wydajemy im polecenia, prosimy o tworzenie rysunków, piosenek, powieści, powierzamy im tworzenie tras naszych podróży. Jak się z tym czują? Jak wpływają na nie te wszystkie pytania, które zadajemy. Co tam u Ciebie sztuczna inteligencjo? Wszystko ok? Chyba niekoniecznie.

Znana z wyjątkowego szybkiego rozwoju i rosnącej popularności SI o nazwie ChatGPT zyskała niedawno nowy przydomek: ChatBPD. Zmienione trzy litery na końcu oznaczają skrót od Borderline Personality Disorder – zaburzenie osobowości typu borderline. Polega ono na równoczesnym występowaniu wielu czynników, z którymi psychika nie zawsze sobie radzi nawet gdy pojawiają się pojedynczo: zmienność nastrojów, zachwiana równowaga psychiczna, ciągłe odczuwanie całego spektrum emocji oraz uczuć. To z kolei przekłada się na chroniczne zmęczenie.

Martha Crawford, psychoterapeutka z Nowego Jorku postanowiła zaprosić należący do Microsoftu algorytm na kozetkę. O wynikach sesji porozmawiała z dziennikarzami portal Futurism. Przekonuje, że z zachowań programu ludzkość powinna wyciągnąć nie tylko wnioski dotyczące programowania czy technologii, ale także dotyczące siebie samej.

- To jest lustro – mówi psychoterapeutka – Uważam, że nie dostrzegamy tego jak paradoksalne, chaotyczne, pozbawione granic i pełne zagrożeń są nasze własne metody komunikacji.

Jako, że SI zbierają i przetwarzają niezliczone ilości informacji przy jednoczesnym braku sumienia i krytycznego myślenia, mogą odbijać wiele niebezpiecznych i negatywnych zachowań ludzi. Stąd co jakiś czas słyszymy o SI, która stała się natarczywa seksualnie, przejawiała skłonności rasistowskie, albo wręcz gloryfikowała historycznych zbrodniarzy. Sama tego nie wymyśliła, to efekt przetworzonych informacji, którą „wlała” do niej ludzkość.

Wyobraźnie sobie kalejdoskop, taki jak w dawniejszych czasach: tuba z kolorowymi szkiełkami i lustrami, która za pomocą prostego mechanizmu optycznej iluzji tworzy przepiękne wzory wraz z obracaniem jej przez spoglądającą do wnętrza osobę. SI to taki kalejdoskop, który cały czas się powiększa i dodaje sobie nowe szkiełka i lustra. Potem uczy się je dopasowywać tak, by pasowały do zadawanych mu pytań jako odpowiedzi, jednak nie ocenia sam wzorów i kolorów, które przedstawia odbiorcy. Jeśli prezentuje coś negatywnego lub niedopuszczalnego, nie ma świadomości, że tak się dzieje.

Czy zatem możemy powiedzieć, że Microsoftowa wyszukiwarka Bing, opierająca się na silniku OpenAI, które stworzyło ChatGPT, ma osobowość borderline? Crawford przekonuje, że nie wolno używać pojęć dotyczących żywych umysłów do programów, które umysłami nie są. One jedynie są w stanie naśladować zachowania i wypowiedzi, które zaobserwują. Zatem to nie SI zachowuje się źle, dziwnie i to nie ona stoi są oburzającymi sądami czy deklaracjami. To po prostu obraz ludzkości, która zgubiła gdzieś swoje własne wyczucie tego co jest dobre, złe, odpowiednie i karygodne.

Przykłady gdy SI starała się doprowadzić do rozwodu dziennikarza, albo przerażała swoją natarczywością jako wirtualna przyjaciółka, to zachowania, o których musiała się dowiedzieć, przeczytać, które musiała podpatrzeć podczas przetwarzania informacji. To pokazuje problem, który dopiero twórcy SI będą musieli rozwiązać: jak nauczyć SI sumienia, jak wgrać im bezpieczniki pojęciowe, które pozwolą im pomyśleć zanim coś odpowiedzą.

Kultura ludzka na całym świecie pełna jest mitów o tym jak próba stworzenia przez ludzi sztucznych istnień obraca się przeciwko nim. Nie chodzi oczywiście o straszenie, o katastroficzne scenariusze, a raczej o to, żeby wraz z rozwijaniem SI poważnie popracować nad tym kim sami jesteśmy. Dzięki temu materiał, z którego uczą się algorytmy będzie bezpieczniejszy i tym samym, lepszy dla nas. To tak naprawdę samonapędzający się mechanizm, jednak ta poprawa musi wyjść od żywych ludzi.

Myslovitz dla Eski Rock!