Mamy koło, ale co dalej? Współzałożyciel SentiOne i naukowiec z PG komentują list ws. wstrzymania rozwoju AI

Andrzej Kowalski
Andrzej Kowalski
Mamy koło, ale co dalej? Współzałożyciel SentiOne i naukowiec z PG komentują list ws. wstrzymania rozwoju AI
Mamy koło, ale co dalej? Współzałożyciel SentiOne i naukowiec z PG komentują list ws. wstrzymania rozwoju AI Alex Knight/Pexels
Setki inwestorów, biznesmenów oraz ekspertów od sztucznej inteligencji wzywają do przerwy w rozwijaniu systemów AI. Chodzi o te bardziej zaawansowane od opublikowanego w marcu GPT-4. Wśród osób, które podpisały się pod tym apelem, znajdują się m.in. Elon Musk - prezes Tesli, SpaceX i Twittera, Steve Wozniak - współzałożyciela Apple czy też pisarz Yuval Noah Harari.

Eksperci i inwestorzy chcą przerwania rozwoju AI na pół roku

W swoim piśmie sygnatariusze nawołują do co najmniej sześciomiesięcznej przerwy od rozwijania systemów AI zdolniejszych od GPT-4. Ostrzegają także, że w przeciwnym razie może dojść do nieprzewidywalnych skutków "wyścigu o tworzenie coraz potężniejszych modeli". List został opublikowany na stronach ośrodka Future of Life.

W nim możemy przeczytać, że zaawansowana sztuczna inteligencja może stanowić "głęboką zmianę w historii życia na Ziemi". Dlatego też, zdaniem sygnatariuszy, powinno się podchodzić do tej technologii z dużą ostrożnością.

ZOBACZ TAKŻE: Czy sztuczna inteligencja wkrótce zabierze nam pracę? Ekspert: Żadne regulacje nas przed nią nie ochronią (WIDEO)

- Niestety, do tego poziomu planowania i zarządzania nie dochodzi, mimo że w ostatnich miesiącach widzieliśmy laboratoria AI zaangażowane w niekontrolowany wyścig, by rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt - w tym nawet ich twórcy - nie potrafi zrozumieć, przewidzieć czy porządnie kontrolować - piszą w liście.

Brak kontroli i regulacji może, zdaniem autorów pisma, przerodzić się w prawdziwą falę dezinformacji. Niejednokrotnie pojawiały się już przecież fałszywe zdjęcia znanych osób i fake newsy autorstwa AI, w które nie tak trudno jest uwierzyć po powierzchownym zapoznaniu się z treścią.

W tekście jest też ostrzeżenie przed masową automatyzacją pracy, a nawet zastąpieniem ludzi przez maszyny.

Co na to przedstawiciel branży z SentiOne?

O komentarz w tej sprawie poprosiliśmy ekspertów z dziedziny AI. Bartosz Baziński, programista, COO i współzałożyciel SentiOne przedstawił nam perspektywę z sektora prywatnego.

I Baziński uważa, że faktycznie należy podejmować pewne kroki w celu uregulowania badań nad sztuczną inteligencją.

- O ile argumenty użyte w przytoczonym liście są bardzo słuszne i zdecydowanie powinny być poddane pod publiczną debatę, o tyle zaproponowane rozwiązanie, aby wstrzymać wszystkie prace w tej dziedzinie, jest nierealne i niemożliwe do wykonania. Autorzy listu słusznie pytają: „Czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą?”. To realne zagrożenie, że większość treści w Internecie powstanie przy użyciu generatywnej sztucznej inteligencji, bez weryfikacji ze strony człowieka - mówi Baziński. - Możliwości AI są potężne również przy tworzeniu bardzo wiarygodnych zdjęć - wszyscy widzieliśmy papieża Franciszka w puchówce, szczęśliwie miał zdeformowaną dłoń więc rozpoznaliśmy, że to AI. Wyobraźmy sobie jednak, jakie wrażenie na społeczeństwie mogą zrobić spreparowane zdjęcia z frontu wojennego w dowolnym miejscu na świecie - świetne narzędzie propagandowe, które w niepowołanych rękach może siać strach, nienawiść lub dzielić społeczeństwa. Tak więc trzeba nagłaśniać zagrożenia AI, trzeba szukać rozwiązań, jak rozróżnić prawdę od fałszywej informacji, a umiejętnością przyszłości będzie fact-checking - dodaje.

Współzałożyciel trójmiejskiego SentiOne zwraca jednak uwagę na to, że postulat autorów listu jest niemożliwy do wykonania.

- Jednak metoda, do której zastosowania nawołują autorzy listu - wstrzymanie wszystkich prac - jest nierealna. Jest już za późno na takie działania. Prawie wszystkie firmy big-tech już zaprezentowały swoje modele AI publicznie. Model firmy Meta wyciekł do Internetu już miesiąc temu i może obecnie znajdować się w dowolnych niepowołanych rękach. Niedawno przeczytałem, że ktoś pobrał cały model ChatGPT, następnie połączył go z modelem Meta i stworzył „supermodel”, który można swobodnie zainstalować na własnym domowym komputerze. W tej sytuacji myślę, że już za późno na odwoływanie do pojęć takich jak wartości, etyka lub sumienie, skoro potencjalni hackerzy o nieznanych intencjach dysponują już modelami AI - mówi programista.

Według Bazińskiego pojawia się kilka pytań, które jego zdaniem należy rozważyć przed podjęciem takiej decyzji, jak ta proponowana w piśmie.

- Kolejnym problemem jest definicja, co oznacza zaprzestanie prac nad modelami AI? Kto będzie to regulował lub egzekwował? Nad takimi modelami pracuje wiele firm w różnych krajach o różnej legislacji. Dodatkowo każdy człowiek codziennie trenuje modele AI - np. poprzez konwersację z dowolnym chatbotem lub rozmowę z wirtualnym asystentem na infolinii. Rozwoju AI nie da się zatrzymać, prace nad sztuczną inteligencją są zbyt rozproszone i dynamiczne. Natomiast zdecydowanie należy rozmawiać o regulacjach w branży AI, aby zabezpieczyć przyszłe społeczeństwo przede wszystkim przed propagandą, manipulacjami i rozpowszechnianiem fałszywych informacji na niewyobrażalną skalę - mówi przedstawiciel SentiOne.

Mamy koło, ale brakuje infrastruktury

Dr hab. inż. Piotr Szczuko, profesor Katedry Systemów Multimedialnych Politechniki Gdańskiej, podsumowuje natomiast założenia listu i jako jego esencję traktuje potrzebę stworzenia konkretnych zasad.

- To, co powinno najgłośniej wybrzmieć z tego listu, to postulaty wzywające do sformułowania ścisłych zasad stosowania tzw. silnej sztucznych inteligencji (AGI – artificial general intelligence), określenia odpowiedzialności za jej stosowanie, dodefiniowanie obszarów, w których AI może być użyte. Już unijny dokument AI Act z 2021 roku (EUR-Lex - 52021PC0206 - EN - EUR-Lex (europa.eu)) zawiera istotne rekomendacje i definicje w tym zakresie - mówi Szczuko. Dodaje też, że dalszy rozwój algorytmów bardziej zaawansowanych niż GPT-4 obecnie nie jest najważniejszy. - Już na dzień dzisiejszy one są tak zaawansowane, że w połączeniu z "wtyczkami", które zapowiedziało OpenAI, są w stanie pomagać w zasadzie w każdej dziedzinie. Podkreślić należy jednak ich wielką wadę: w przeciwieństwie do człowieka GPT nie ma pojęcia, że może się mylić i gdy to robi, pisze bzdury w niezwykle przekonujący sposób - dodaje.

Naukowiec zwraca też uwagę na inny fakt - sztuczna inteligencja jest genialna w... udawaniu genialnej. To jest właśnie jedno z zagrożeń, które bezpośrednio może generować kolejne fake newsy w przestrzeni internetowej.

- Szczególnie ważne jest informowanie o ograniczeniach tego algorytmu. Analizuje on statystyczne zależności między słowami w tekście i uczony jest generować sensownie brzmiące wypowiedzi, ale w zasadzie wymyśla je od nowa, a nie przywołuje faktycznej wiedzy. Oznacza to, że ryzyko zastąpienia wielu zawodów algorytmami jest mniejsze niż może się wydawać, tam, gdzie liczy się precyzja, profesjonalizm, poprawność faktów. W tym obszarze algorytmy nie przegonią człowieka - tłumaczy w rozmowie z "Dziennikiem Bałtyckim" Piotr Szczuko. - Konieczne jest teraz ustalenie zasad stosowania, przebadanie ograniczeń i możliwości i edukowanie na temat zagrożeń i korzyści stosowania AI. To właściwy moment na zatrzymanie się, refleksję środowisk naukowych, przemysłu, korporacji i organizacji działających w tej dziedzinie i wdrożenie owej technologii w sposób odpowiedzialny i etyczny.

Wszyscy - zarówno autorzy listu, jak i nasi rozmówcy - są jednak zgodni co do jednego. Jesteśmy w bardzo ważnym punkcie, kiedy to zaczyna powstawać i rozwijać się nowa technologia. Technologia przełomowa, z którą wcześniej nie było nam dane obcować.

Dobrym zobrazowaniem tego punktu w historii jest zdaniem naukowca z PG inny przełomowy wynalazek, a mianowicie... koło.

- Zastosuję porównanie motoryzacyjne: mamy przełom - wynalezienie koła, mamy wydajny silnik, zbudowaliśmy szybkie samochody – to właśnie GPT-4. Oto czego brakuje: dróg, przepisów ruchu, szkolenia kierowców. GPT-4 to tylko wspaniałe narzędzie, tak jak samochód może być użyteczny i kreować wiele możliwości i nowe biznesy, ale w rękach nieprzeszkolonego kierowcy będzie zagrożeniem, nawet jeśli użytkownik jest już po pierwszej lekcji jazdy i umie ruszać i zmieniać biegi - wyjaśnia profesor.

Problem jednak polega na tym, że według niektórych powinniśmy zatrzymać się i uregulować lub też sformułować zasady dalszego rozwoju prac nad, w tym przypadku, kołem. Z drugiej strony pojawiają się jednak głosy, że "koło" już nam odjechało.

Czy technologie niszczą psychikę dzieci?

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Dołącz do nas na Twitterze!

Codziennie informujemy o ciekawostkach i aktualnych wydarzeniach.

Obserwuj nas na Twiterze!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera

Komentarze

Komentowanie artykułów jest możliwe wyłącznie dla zalogowanych Użytkowników. Cenimy wolność słowa i nieskrępowane dyskusje, ale serdecznie prosimy o przestrzeganie kultury osobistej, dobrych obyczajów i reguł prawa. Wszelkie wpisy, które nie są zgodne ze standardami, proszę zgłaszać do moderacji. Zaloguj się lub załóż konto

Nie hejtuj, pisz kulturalne i zgodne z prawem komentarze! Jeśli widzisz niestosowny wpis - kliknij „zgłoś nadużycie”.

Podaj powód zgłoszenia

Nikt jeszcze nie skomentował tego artykułu.
Wróć na dziennikbaltycki.pl Dziennik Bałtycki
Dodaj ogłoszenie