ChatGPT nauczył się podrabiać paragony – co na to OpenAI?
Możliwość generowania obrazów w ChatGPT robi ogromne wrażenie – ale wzbudza też uzasadniony niepokój. Użytkownicy szybko odkryli, że sztuczna inteligencja potrafi tworzyć wyjątkowo realistyczne, fałszywe paragony. Użytkownicy testują granice kreatywności, a eksperci ostrzegają. Artykuł ChatGPT nauczył się podrabiać paragony – co na to OpenAI? pochodzi z serwisu SOCIALPRESS.


Udostępniona ostatnio funkcja generowania obrazów w ChatGPT zachwyca jakością, ale także niepokoi. Użytkownicy odkryli, że sztuczna inteligencja potrafi tworzyć fałszywe paragony z niepokojącą dokładnością.
Szczegółowo generowane obrazy – realizm, który przeraża?
Zaktualizowany generator obrazów w modelu GPT-4o pozwala użytkownikom tworzyć hiperrealistyczne grafiki, które z powodzeniem mogą imitować fotografie. Od infografik i miniatur wideo po… fałszywe paragony. Nowa funkcja umożliwia generowanie dokumentów z drobiazgowym odwzorowaniem szczegółów. Chodzi m.in. o zmarszczki papieru, delikatne zabrudzenia czy nawet plamy po jedzeniu i napojach. Dla wprawnego oka to może jeszcze nie jest doskonała fałszywka, ale dla systemów opartych na rozpoznawaniu obrazu już jak najbardziej.
Twórcy internetowi szybko zwrócili uwagę na nowe możliwości. Inwestor Deedy Das opublikował na platformie X (dawniej Twitter) fałszywy paragon ze steakhouse’u w San Francisco, wygenerowany przez ChatGPT. Dokument wyglądał na autentyczny, a komentarz autora był wymowny: Zbyt wiele systemów weryfikacji opiera się na „prawdziwych obrazach”. Ta era właśnie się kończy.
Przypadkowe błędy i zamierzone manipulacje
Choć ChatGPT potrafi wygenerować wizualnie przekonujące paragony, modele wciąż nie radzą sobie dobrze z liczbami. TechCrunch testował nowy generator i zauważył konkretne błędy. Przykładowo suma na wygenerowanym paragonie zawierała przecinek zamiast kropki dziesiętnej, a obliczenia nie zgadzały się matematycznie. To jednak problem techniczny, który łatwo można obejść. Wystarczy precyzyjniejsze polecenie lub użycie edytora graficznego.
Użytkownicy poszli jednak krok dalej. Przesyłają prawdziwe zdjęcia paragonów i proszą ChatGPT o modyfikację kwoty, daty czy nazw potraw. Efekty? Fałszywka trudna do wykrycia nawet dla eksperta. Tego rodzaju narzędzie może być wykorzystane do wyłudzania zwrotów kosztów, oszustw konsumenckich. W dalszej perspektywie można zobaczyć widmo fałszowania innych dokumentów.
OpenAI: „Nie będziemy ograniczać kreatywności”
Taya Christianson, rzeczniczka OpenAI, zapewniła, że wszystkie obrazy generowane przez ChatGPT zawierają metadane informujące o ich pochodzeniu. Firma deklaruje również, że podejmuje działania wobec użytkowników naruszających regulamin i że „uczy się” z doświadczeń płynących z rzeczywistego użycia narzędzi.
Na pytanie TechCrunch, dlaczego ChatGPT w ogóle umożliwia generowanie fałszywych dokumentów, Christianson odpowiedziała, że celem OpenAI jest zapewnienie maksymalnej swobody twórczej. Według firmy fałszywe paragony mogą mieć również zastosowania artystyczne czy edukacyjne (np. w nauce finansów).
Krok za daleko w korzystaniu z ChatGPT?
Choć intencje OpenAI mogą być z pozoru neutralne, efekt końcowy budzi niepokój. Coraz bardziej realistyczne obrazy generowane przez AI zacierają granicę między fikcją a rzeczywistością. Przypomina to niedawny przypadek wygenerowanych przez AI zdjęć Brada Pitta w szpitalu. Wykorzystano je do oszustwa, w wyniku którego ofiara straciła 850 tys. dolarów.
Podobne scenariusze mogą wkrótce dotyczyć paragonów, faktur, a nawet dokumentów tożsamości. Na razie OpenAI nie zapowiada ograniczeń. I choć metadane mogą teoretycznie pomóc w identyfikacji sztucznego pochodzenia obrazu, to w praktyce większość osób nie weryfikuje ich, przyjmując grafikę „na słowo”. Pytanie nie brzmi już, czy ktoś wykorzysta te możliwości do oszustwa, ale kiedy to się stanie na większą skalę. I kto za to zapłaci.
Artykuł ChatGPT nauczył się podrabiać paragony – co na to OpenAI? pochodzi z serwisu SOCIALPRESS.