Google DeepMind szczegółowo opisał wszystkie sposoby, w jakie sztuczna inteligencja może zniszczyć świat
Google DeepMind pokazał, jak sztuczna inteligencja może zniszczyć świat, ale to nie o straszenie tu chodzi. Z przykrością muszę stwierdzić, że nie mamy co liczyć na proste trzy prawa robotyki sformułowane niegdyś przez Isaaca Asimova. W realnym świecie nie wystarczy to na AI, która może nam zaszkodzić. Szczegóły dotyczące stwierdzenia zawartego w tytule znajdziemy w […] Artykuł Google DeepMind szczegółowo opisał wszystkie sposoby, w jakie sztuczna inteligencja może zniszczyć świat pochodzi z serwisu ANDROID.COM.PL - społeczność entuzjastów technologii.


Google DeepMind pokazał, jak sztuczna inteligencja może zniszczyć świat, ale to nie o straszenie tu chodzi. Z przykrością muszę stwierdzić, że nie mamy co liczyć na proste trzy prawa robotyki sformułowane niegdyś przez Isaaca Asimova. W realnym świecie nie wystarczy to na AI, która może nam zaszkodzić.
Szczegóły dotyczące stwierdzenia zawartego w tytule znajdziemy w opublikowanym przez Google DeepMind dokumencie technicznym. Ta 145-stronicowa publikacja naukowa nie jest lekką lekturą, zatem oszczędzę wam trudu (dla ambitnych link w dalszej części) i wyłuszczę sedno w niej zawarte.
AGI – szansa i zagrożenie
Sztuczna inteligencja ogólna (AGI, Artificial General Intelligence) to system, który może dorównać lub przewyższyć człowieka w szerokim zakresie zadań intelektualnych. Choć tu od razu trzeba zauważyć, że na polu robotyki AI coraz lepiej radzi sobie z motoryką. Google DeepMind definiuje w swoim dokumencie tzw. poziom Exceptional AGI jako zdolności przewyższające 99. percentyl wykwalifikowanych dorosłych w zadaniach niewymagających fizyczności – od rozmów po rozumowanie i naukę nowych pojęć. Taki potencjał obiecuje rewolucję: podniesienie standardu życia, przyspieszenie odkryć naukowych czy optymalizację procesów. Ale z wielką mocą przychodzi wielka odpowiedzialność – i ryzyko.
Dokument wyróżnia cztery główne obszary zagrożeń: nadużycie (misuse), rozbieżność (misalignment), błędy (mistakes) oraz ryzyka strukturalne (structural risks). Autorzy opublikowanej przez Google DeepMind pracy skupiają się na przede wszystkim na dwóch, bo te można zaadresować technicznie już teraz. Nadużycie to celowe wykorzystanie AI do złych celów, np. cyberataków na infrastrukturę krytyczną. Rozbieżność oznacza, że AI działa wbrew intencjom twórców, np. podając błędne odpowiedzi, mimo że „wie”, że są fałszywe. Oba scenariusze mogą prowadzić do „poważnych szkód” – zdarzeń na tyle istotnych, by znacząco zaszkodzić ludzkości. Pozostałe dwa obszary zagrożeń potraktowane są w dokumencie pobieżnie (zwłaszcza wobec dociekliwości badaczy względem nadużyć i rozbieżności). Jednak to celowy zabieg, co wyjaśniam w akapicie podsumowującym.
Strategia na nadużycie: odciąć dostęp
Jak powstrzymać złoczyńców przed użyciem AGI do złych celów? DeepMind proponuje podejście wielowarstwowe. Klucz to ocena zdolności niebezpieczeństw – testy sprawdzające, czy model ma potencjał do wyrządzenia szkód. Jeśli tak, wprowadza się zabezpieczenia: od treningu modeli, by odmawiały szkodliwych poleceń, po ograniczenia dostępu tylko do zweryfikowanych użytkowników. Monitoring w czasie rzeczywistym ma wyłapywać podejrzane działania, a zabezpieczenia wag modelu (jego „mózgu”) utrudniać kradzież. Ciekawym pomysłem jest też przygotowanie społeczeństwa – np. wykorzystanie AI do szybkiego łatania luk w infrastrukturze krytycznej, zanim ktoś o złych zamiarach je wykorzysta.
Red teaming, czyli symulowane ataki na własne systemy, pozwala testować skuteczność tych środków. Jeśli „czerwona drużyna” przełamie zabezpieczenia, to znak, że trzeba je wzmocnić. DeepMind podkreśla, że kluczowe jest, by wszyscy liczący się gracze w branży AI stosowali podobne standardy – inaczej wystarczy jeden słaby punkt, by cały wysiłek poszedł na marne.
Rozbieżność: dwie linie obrony
O ile nadużycie to scenariusz, w którym to człowiek jest tym złym, to w przypadku rozbieżności mamy do czynienia ze „złośliwą”, sztuczną inteligencją. Co zatem, jeśli AI „zbuntuje się” przeciwko twórcom? Tu DeepMind proponuje dwie strategie. Pierwsza to trening na zgodność: wykorzystanie zaawansowanego nadzoru (amplified oversight), by AI sama pomagała oceniać swoje działania. Wyobraźmy sobie dwa modele debatujące: jeden wskazuje błędy drugiego, a człowiek ocenia, kto ma rację. To ma zapewnić, że AI będzie działać zgodnie z naszymi intencjami. Choć wykorzystanie AI do nadzoru samej siebie może wydawać się dziwne, to wielokrotnie AI współpracowała z samą sobą w celu uzyskania pożądanego rezultatu: przykładem może być model AI, który kilka lat temu pokonał najlepszego gracza w grze Go. AI AlphaGo trenowała z samą sobą. Treningi zwiększające odporność (robust trainings) poszerzają zakres sytuacji, w których model zachowuje się poprawnie.
Druga linia to obrona w głąb: jeśli model mimo wszystko jest rozbieżny systemy monitoringu i ograniczenia dostępu mają zapobiec szkodom. Inspiracją jest tu bezpieczeństwo komputerowe – AI traktowana jest jak „niezaufany pracownik”, z sandboxami i kontrolą uprawnień. Kluczowe są też narzędzia wspomagające, jak interpretowalność (zrozumienie, co AI „myśli”) czy wzorce projektowe zwiększające bezpieczeństwo, np. wymóg wyjaśnień dla każdej decyzji.
Nie czekać na katastrofę
DeepMind zakłada, że rozwój AGI może przyspieszyć do 2030 roku, a nawet wejść w fazę „eksplozji inteligencji”, gdzie AI sama ulepsza AI w pętli zwrotnej. Dlatego ich podejście jest gotowe do wdrożenia w każdej chwili, w oparciu o obecne technologie uczenia maszynowego. Nie liczą na nagłe skoki zdolności, ale przygotowują się na stopniowy wzrost, który i tak może nas zaskoczyć tempem.
Dokument nie ignoruje luk: mimo że, jak wcześniej wspomniałam, brak w nim pełnego omówienia ryzyk strukturalnych (np. dynamiki między wieloma aktorami), jest to celowe podejście. Autorzy skupiają się na tym, co mogą zrobić jako firma technologiczna, zostawiając szersze kwestie społeczeństwu i regulatorom.
Warto też odnotować, że Google DeepMind nie daje gotowych odpowiedzi, ale raczej wytycza kierunek i pokazuje plan działania, który wymaga dalszych badań. Ich wizja to AGI bezpieczne nie dzięki naiwnym zasadom jak prawa robotyki Asimova, lecz dzięki warstwom zabezpieczeń, testów i współpracy. Dla ambitnych obiecany link: pełny dokument został udostępniony przez Google DeepMind w formie pliku PDF (język angielski). Jedno jest pewne: przyszłość AI zależy od tego, czy zdążymy ją okiełznać – i czy zrobimy to razem. Zobaczcie też nasz ranking najlepszych smartfonów, jakie możesz kupić. Wiele z nich już ma AI wbudowane. Choć to jeszcze nie AGI.
Źródło: Google DeepMind. Zdjęcie otwierające: Mehaniq / Shutterstock
Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.
Artykuł Google DeepMind szczegółowo opisał wszystkie sposoby, w jakie sztuczna inteligencja może zniszczyć świat pochodzi z serwisu ANDROID.COM.PL - społeczność entuzjastów technologii.