
reklama
Udostępniona ostatnio funkcja generowania obrazów w ChatGPT zachwyca jakością, ale także niepokoi. Użytkownicy odkryli, że sztuczna inteligencja potrafi tworzyć fałszywe paragony z niepokojącą dokładnością.
Szczegółowo generowane obrazy – realizm, który przeraża?
Zaktualizowany generator obrazów w modelu GPT-4o pozwala użytkownikom tworzyć hiperrealistyczne grafiki, które z powodzeniem mogą imitować fotografie. Od infografik i miniatur wideo po… fałszywe paragony. Nowa funkcja umożliwia generowanie dokumentów z drobiazgowym odwzorowaniem szczegółów. Chodzi m.in. o zmarszczki papieru, delikatne zabrudzenia czy nawet plamy po jedzeniu i napojach. Dla wprawnego oka to może jeszcze nie jest doskonała fałszywka, ale dla systemów opartych na rozpoznawaniu obrazu już jak najbardziej.
Twórcy internetowi szybko zwrócili uwagę na nowe możliwości. Inwestor Deedy Das opublikował na platformie X (dawniej Twitter) fałszywy paragon ze steakhouse’u w San Francisco, wygenerowany przez ChatGPT. Dokument wyglądał na autentyczny, a komentarz autora był wymowny: Zbyt wiele systemów weryfikacji opiera się na „prawdziwych obrazach”. Ta era właśnie się kończy.
Przypadkowe błędy i zamierzone manipulacje
Choć ChatGPT potrafi wygenerować wizualnie przekonujące paragony, modele wciąż nie radzą sobie dobrze z liczbami. TechCrunch testował nowy generator i zauważył konkretne błędy. Przykładowo suma na wygenerowanym paragonie zawierała przecinek zamiast kropki dziesiętnej, a obliczenia nie zgadzały się matematycznie. To jednak problem techniczny, który łatwo można obejść. Wystarczy precyzyjniejsze polecenie lub użycie edytora graficznego.
Użytkownicy poszli jednak krok dalej. Przesyłają prawdziwe zdjęcia paragonów i proszą ChatGPT o modyfikację kwoty, daty czy nazw potraw. Efekty? Fałszywka trudna do wykrycia nawet dla eksperta. Tego rodzaju narzędzie może być wykorzystane do wyłudzania zwrotów kosztów, oszustw konsumenckich. W dalszej perspektywie można zobaczyć widmo fałszowania innych dokumentów.
OpenAI: „Nie będziemy ograniczać kreatywności”
Taya Christianson, rzeczniczka OpenAI, zapewniła, że wszystkie obrazy generowane przez ChatGPT zawierają metadane informujące o ich pochodzeniu. Firma deklaruje również, że podejmuje działania wobec użytkowników naruszających regulamin i że „uczy się” z doświadczeń
Dalsza część artykułu znajduje się poniżej reklamy

Nowy żołnierz: Służba w epoce dronów, sztucznej inteligencji i cyberwojny
Ten przewodnik to kompendium wiedzy o tym, jak rozwijać kompetencje, które już dziś zmieniają oblicze armii. Dzięki lekturze ebooka zyskasz wskazówki do świadomego rozwoju umiejętności, które mogą zaprocentować zarówno w mundurze, jak i poza nim.
Kup ebookpłynących z rzeczywistego użycia narzędzi.
Na pytanie TechCrunch, dlaczego ChatGPT w ogóle umożliwia generowanie fałszywych dokumentów, Christianson odpowiedziała, że celem OpenAI jest zapewnienie maksymalnej swobody twórczej. Według firmy fałszywe paragony mogą mieć również zastosowania artystyczne czy edukacyjne (np. w nauce finansów).
Krok za daleko w korzystaniu z ChatGPT?
Choć intencje OpenAI mogą być z pozoru neutralne, efekt końcowy budzi niepokój. Coraz bardziej realistyczne obrazy generowane przez AI zacierają granicę między fikcją a rzeczywistością. Przypomina to niedawny przypadek wygenerowanych przez AI zdjęć Brada Pitta w szpitalu. Wykorzystano je do oszustwa, w wyniku którego ofiara straciła 850 tys. dolarów.
Podobne scenariusze mogą wkrótce dotyczyć paragonów, faktur, a nawet dokumentów tożsamości. Na razie OpenAI nie zapowiada ograniczeń. I choć metadane mogą teoretycznie pomóc w identyfikacji sztucznego pochodzenia obrazu, to w praktyce większość osób nie weryfikuje ich, przyjmując grafikę „na słowo”. Pytanie nie brzmi już, czy ktoś wykorzysta te możliwości do oszustwa, ale kiedy to się stanie na większą skalę. I kto za to zapłaci.
Reklama