Ludzkość jest na skraju wyginięcia, a to za sprawą sztucznej inteligencji - taki alarm publikują czołowe postacie związane z tą technologią wspólnie z przedstawicielami świata nauki i innymi intelektualistami. Ich zdaniem trzeba podjąć działania, które zapobiegną takiej apokalipsie. Podobnie jak podejmuje się działania, aby zapobiec pandemiom czy wojnie nuklearnej.
"Zmniejszenie ryzyka wyginięcia z powodu sztucznej inteligencji powinno być globalnym priorytetem na równi z innymi zagrożeniami na skalę społeczną, takimi jak pandemie i wojna nuklearna" - brzmi fragment listu otwartego na stronie organizacji Center for AI Safety. Podpisały go dziesiątki przedstawicieli największych firm pracujących nad sztuczną inteligencją. Na liście znajdziemy między innymi dwójkę naukowców nazywanych "ojcami chrzestnymi" tej technologii - Geoffrey'a Hintona i Yoshuę Bengio.
- Sztuczna inteligencja może być postrzegana jako coś podobnego do broni nuklearnej. Firmy technologiczne biorą właśnie udział w wyścigu zbrojeń. Ścigają się w opracowywaniu coraz potężniejszych systemów i przedkładają ten priorytet nad bezpieczeństwo. Oznacza to, że mamy do czynienia z niezwykle potężną technologią, która może być potencjalnie tykającą bombą - tłumaczy Dan Hendrycks, dyrektor Center for AI Safety.
Zdaniem sygnatariuszy listu sztuczna inteligencja może między innymi posłużyć do budowy broni, szerzenia dezinformacji i zwiększyć opresję w państwach totalitarnych. - Tak jak chociażby stwierdził Max Tegmark, znany fizyk, znawca sztucznej inteligencji, wiemy o tym dobrze, że jej postęp jest czymś, co w pewnym momencie może przekroczyć nasze możliwości poznawcze. Pytanie, czy w pewnym momencie, tak jak twierdzi Tegmark, nie okaże się, że nasza relacja w stosunku do tego, czym stała się sztuczna inteligencja, będzie jak relacja neandertalczyków do homo sapiens - mówi doktor Łukasz Święcicki, sygnatariusz listu z Uniwersytetu Przyrodniczo-Humanistycznego w Siedlcach.
Możliwe zagrożenia
Niedawno tysiące biznesmenów, inwestorów i ekspertów od AI - w tym także Elon Musk - zaapelowali o wstrzymanie rozwoju tej technologii na pół roku. Z kolei amerykański Kongres wezwał na przesłuchanie Sama Altmana, prezesa OpenAI, twórcy ChatGPT. - Jeśli ta technologia pójdzie w złym kierunku, a może tak się stać, to my chcemy mówić o tym głośno. Chcemy współpracować z rządem, żeby temu zapobiec - mówił Samuel Altman. Zdaniem niektórych ekspertów i naukowców strach ma wielkie oczy. - Najczęstszą reakcją ludzi zajmujących się AI na te przepowiednie zagłady jest łapanie się za głowę - uważa profesor Yann Lecun, szef inżynierów AI w Meta.
- Myślę, że obecnie zbyt wiele uwagi poświęca się systemom sztucznej inteligencji przejmującym kontrolę nad ludzkością. Myślę, że są to po prostu antyutopijne narracje, które odwracają uwagę od niektórych rzeczywistych problemów, jakie te systemy stwarzają - dodaje profesor Julia Stoyanovich, dyrektor "Center for Responsible AI".
- Nie chodzi o to, żeby uderzać w takie największe tony i głosić jakieś idee czy wizje apokalipsy ludzkości czy końca świata, jaki znamy - tłumaczy doktor Łukasz Święcicki. - Jedynie chodzi o to, żeby w jakiś sposób ten postęp nadzorować, poddać go pewnej kontroli przez instytucje, przede wszystkim państwowe - dodaje.
Zmiany prawne
Pierwsze propozycje już są. Twórcy ChatGPT proponują stworzenie światowej instytucji do nadzoru rozwoju sztucznej inteligencji. To ma być coś na kształt Międzynarodowej Agencji Energii Atomowej. Taka instytucja miałaby chronić ludzi przed zagrożeniem ze strony "superinteligentnych" systemów. - Potrzebujemy wszystkich rąk na pokładzie, aby móc kontrolować te technologię. Kluczowe w tym aspekcie powinno być przygotowanie odpowiednich regulacji. Potrzebujemy przepisów prawnych - ostrzega profesor Julia Stoyanovich.
Pierwsze na świecie prawo regulujące kompleksowo problemy związane ze sztuczną inteligencją chce stworzyć Unia Europejska. AI act, według zapowiedzi, ma zostać uchwalony do końca 2023 roku.
Źródło: Fakty o Świecie TVN24 BiS