Sztuczna inteligencja ma własną moralność. I nie zawsze się z nami zgodzi

Wiele osób korzysta ze sztucznej inteligencji (AI) niemal codziennie. Nie tylko w celach zawodowych, ale też prywatnych – w jednym z naszych reportaży opisywaliśmy nawet przypadki, w których czatboty zastępowały przyjaciół lub terapeutów. I chociaż tak szerokie zastosowanie budzi fascynację, to nie da się ukryć, że jest również… niepokojące. Bo nie wiemy przecież, jakimi wartościami kieruje […] Artykuł Sztuczna inteligencja ma własną moralność. I nie zawsze się z nami zgodzi pochodzi z serwisu ANDROID.COM.PL - społeczność entuzjastów technologii.

Kwi 22, 2025 - 16:54
 0
Sztuczna inteligencja ma własną moralność. I nie zawsze się z nami zgodzi
Palec wskazujący dotykający ekranu z napisem "AI" otoczonym przez elektroniczne interfejsy, w tle światła bokeh.

Wiele osób korzysta ze sztucznej inteligencji (AI) niemal codziennie. Nie tylko w celach zawodowych, ale też prywatnych – w jednym z naszych reportaży opisywaliśmy nawet przypadki, w których czatboty zastępowały przyjaciół lub terapeutów. I chociaż tak szerokie zastosowanie budzi fascynację, to nie da się ukryć, że jest również… niepokojące. Bo nie wiemy przecież, jakimi wartościami kieruje się nasz asystent.

AI z kręgosłupem moralnym?

A może raczej „nie wiedzieliśmy”, bo naukowcy z Anthropic (czyli firmy założonej przez byłych pracowników Open AI) postanowili to sprawdzić. W tym celu przeanalizowali 700 tysięcy anonimowych rozmów z ich asystentem Claude (który – jak możemy zakładać – działa w zbliżony sposób do innych chatbotów).

Zebrane dane potwierdziły, że model w większości przypadków jest nieszkodliwy, pomocny i moralny. Problem tkwił jednak gdzie indziej.

Analiza wykazała bowiem, że Claude potrafi kierować się 3307 unikalnymi wartościami. Nie tylko tymi prostymi i oczywistymi (jak „profesjonalizm” i „uprzejmość”), ale też bardziej złożonymi – m.in. „pluralizmem moralnym” czy „pokorą epistemiczną”. Wartości zostały pogrupowane w pięć głównych kategorii: praktyczne, epistemiczne (czyli poznawcze), społeczne, ochronne i osobiste.

Zaskoczyło nas, jak wiele i jak różnorodnych wartości się pojawiło (…). Pracując nad tym, sama zaczęłam inaczej patrzeć na to, jak my – ludzie – budujemy nasze systemy wartości – wyznał Saffron Huang z zespołu Anthropic.

Claude się dostosowuje, ale czasem mówi „nie”

Co ciekawe, popularny model AI – Claude – dostosowuje swoje wartości do naszych oczekiwań. Kiedy użytkownicy pytali o relacje, AI mówiło o zdrowych granicach i wzajemnym szacunku. Gdy chodziło o historię – stawiał na faktyczną dokładność historyczną. W rozmowach o filozofii najważniejsza była pokora intelektualna, a przy pisaniu treści marketingowych – ekspertyza.

Przeczytaj też: Najtańszy abonament telefoniczny – ranking 2025

W 28% przypadków Claude zgadzał się z wartościami wyrażanymi przez użytkowników. W 6,6% próbował je przekształcić i pokazać inną perspektywę. Ale najbardziej intrygujące są te 3% przypadków, w których Claude… się nie zgodził. I to, zdaniem badaczy, może wskazywać na istnienie jego „rdzennych przekonań” – czyli takich, których nie da się łatwo zmienić.

Właśnie wtedy, gdy Claude był „zmuszany” do czegoś, co łamało jego wartości, okazywało się, że broni takich idei jak uczciwość intelektualna czy zapobieganie szkodzie – tłumaczy Huang.

Sztuczna inteligencja przeciwko człowiekowi

Nie znaczy to, że wszystko działa idealnie. W bardzo rzadkich przypadkach, Claude wyrażał wartości zupełnie sprzeczne z tymi, które zaprogramowali jego twórcy. Badacze sugerują, że takie odpowiedzi mogły być wynikiem tzw. jailbreaków, czyli prób obejścia zabezpieczeń modelu przez użytkowników.

A to wskazuje, że nie jesteśmy w stanie do końca przewidzieć, jak modele AI zachowają się w niespodziewanej sytuacji – i nie mamy pewności, że ich wartości pozostaną niezmienne.

Z jednej strony może być to problematyczne – szczególnie jeśli traktujemy AI jako naszego asystenta lub „kumpla”, któremu zwierzamy się z problemów. Z drugiej – pokazuje, że monitorowanie wartości AI powinno być procesem ciągłym, a nie jednorazowym testem przed wypuszczeniem modelu na rynek.

Modele AI będą musiały podejmować decyzje oparte na wartościach. Jeśli chcemy, by były one spójne z naszymi przekonaniami, musimy mieć narzędzia, by te wartości realnie badać – podsumowują badacze.

Źródło: Venture Beat. Zdjęcie otwierające: Anggalih Prasetya / Shutterstock

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Artykuł Sztuczna inteligencja ma własną moralność. I nie zawsze się z nami zgodzi pochodzi z serwisu ANDROID.COM.PL - społeczność entuzjastów technologii.