Czy da się nauczyć SI wrażliwości? Polacy próbują

i

Autor: MAREK LASYK/REPORTER Sztuczna studentka Sophie

Czy da się nauczyć SI wrażliwości? Polacy próbują

2023-04-13 11:30

Wraz z rozwojem ChatGPT, Midjourney i wielu innych algorytmów, które zadziwiają nas swoimi możliwościami coraz częściej padają zupełnie poważne pytania o to, czy a nawet kiedy SI będą w stanie decydować o sobie same i co z tym zrobią. Większość scenariuszy jest apokaliptyczna, ale gdyby tak nauczyć je empatii, współczucia i wyposażyć w etyczne bezpieczniki? Zespół z Politechniki Wrocławskiej próbuje takie stworzyć.

Mamy już za sobą wiele głośnych przypadków gdy znacznie prostsze niż ChatGPT internetowe chatboty po krótkim pobycie w sieci stawały się kipiącymi mizantropią i cytującymi zbrodniarzy radykałami. W internecie nietrudno także trafić na przykłady odpowiedzi SI na pytania, które mrożą krew w żyłach i wreszcie pamiętamy przypadek mężczyzny, którego SI przekonała do samobójstwa. Jak zatem zabezpieczyć ludzkość przed własnymi cyfrowymi dziećmi?

Sprawa nie jest łatwa, bo opiera się na języku i rozumieniu słów. To bardzo delikatna materia, bo to, co dla jednych jest śmieszne, ironiczne, sarkastyczne i dowodzi dystansu do sprawy, dla innych może być oznaką bezduszności, braku empatii, chamstwa lub wręcz moralnego nihilizmu. SI mogą nam zaprezentować odpowiedzi na wiele pytań, jednak nie są wyposażone (jeszcze) w krytyczne odpowiedzi, które pozwoliłyby im w porę ugryźć się w cyfrowy język.

W rozmowie z Polską Agencją Prasową dr Jan Kocoń z Politechniki Wrocławskiej przekonuje, że ludzkość przygotowywać nauczyć SI rozumienia tego, co sama chce powiedzieć.

- Kiedyś zwrócili się do mnie studenci, którzy chcieli opracować filtr do rozpoznawania mowy nienawiści. Jednak nie ma uniwersalnej definicji, co to jest mowa nienawiści. Każdego z nas obrażają nieco inne treści. Nawet jeśli wiemy, jak odsiewać treści niewątpliwie niezgodne z prawem i opracujemy globalny filtr, to i tak znajdą się osoby, które w treściach znajdą coś, czego nie życzą sobie widzieć - mówi dr Kocoń. Powstaje tu bardzo ciekawe pytanie: czy SI powinny być obiektywne i wręcz do bólu szczere? A może lepiej by stały się wrażliwe na to z kim rozmawiają i dopasowywały się do niego, by nie odrzucać ludzi? To z pewnością będzie temat wielu dyskusji podczas naukowych kongresów. Tymczasem pomysł naukowców z Politechniki Wrocławskiej zakłada by SI umiało prezentować treści tak by „wiedzieć” które z nich będą odpowiednie lub nie dla odbiorcy. Nauczy ją tego możliwość oceny odpowiedzi przez użytkowników.

- Ten pomysł nie jest zupełnie nowy – tłumaczy dr Kocoń - System rekomendacji YouTube czy Facebooka działa na podobnej zasadzie: znając historię decyzji użytkownika, portale proponują treści, które spodobały się podobnym użytkownikom. Nasz model odnosi się jednak nie tylko do analizy podobieństwa zachowań użytkowników, ale i zjawisk językowych - do analizy reprezentacji ocenianych treści. Mamy pomysł i wiemy, jak go zrealizować, ale warto zastanowić się też, jakie byłyby tego konsekwencje. Czy jeśli odetniemy od siebie wszelkie nieprzyjemne i nie pasujące do naszego światopoglądu treści, to jeszcze bardziej nie zamkniemy się w bańkach informacyjnych i nie zaczniemy żyć w swoich utopiach?

To bardzo ważne pytanie, bo już teraz, na podstawie działania mediów społecznościowych i siły politycznej polaryzacji w Polsce i na przykład w USA widać, że tworzenie szczelnych „baniek”, w których zamykamy się pośród tak samo myślących, a pozostałych odrzucamy i potępiamy w czambuł, może być bardzo niebezpieczne. W rezultacie zamiast poprawiać bezpieczeństwo zwyczajnie odetnie nas od elementów rzeczywistości, które nam się nie podobają, a z klapkami na oczach dobrego kursu dla ludzkości na pewno nie znajdziemy.

Pozytywne umysły to największe inspiracje! Smash Into Pieces dla Eski Rock