
Chciałem dać tytuł: „Tego nie wiesz o ChatGPT – tak cię wprowadzają w błąd” i dopisać wprost „oszukują”, ale się boję. Nie dlatego, że problem jest mały. Dlatego, że słowo „oszustwo” ma ciężar prawny, a ja nie mam dostępu do całej komunikacji marketingowej, warunków usługi i oceny organów. Za to mogę napisać rzecz, której nie da się zbyć uśmiechem: jeśli używasz ChatGPT do długich, ważnych spraw, to możesz wpaść w pułapkę, która w praktyce wygląda jak wprowadzanie w błąd (dla mnie - jest nim).
Uwaga: To moje własne odkrycie — OpenAI nie informuje w jasny sposób o tym mechanizmie, który ja odbieram jako oszukiwanie użytkowników.
Interfejs czatu sugeruje prostą intuicję: skoro rozmawiamy w jednym wątku, to „wszystko jest pod ręką” i da się do tego wrócić. Problem w tym, że model nie pracuje na całej historii rozmowy w nieskończoność. Odpowiedź jest tworzona na podstawie tego, co mieści się w aktualnym kontekście wejściowym. Gdy rozmowa staje się długa, część treści ZACZYNA BYĆ USUWANA (wybiórczo, niezależnie od daty o godziny jej dodania). Dokumentacja OpenAI dla deweloperów opisuje wprost, że stan rozmowy trzeba zarządzać, a „ciągłość” wynika z tego, co dostarczysz jako kontekst w kolejnych turach.
Z perspektywy użytkownika efekt jest brutalny:
Jeśli ktoś używa czatu jak dziennika (zdrowie, projekt, dokumentacja), to taka utrata kontekstu nie jest drobną niedogodnością. To jest utrata pracy. To jest zmarnowany czas. To jest utrata zaufania. A w sprawach zdrowotnych lub biznesowych to może być po prostu szkodliwe.
Nie chodzi o to, że istnieje limit techniczny. Limity ma każde narzędzie. Chodzi o to, że doświadczenie produktu i jego „forma rozmowy” budują u użytkownika przekonanie, że to jest sensowne miejsce do prowadzenia długiej sprawy. Tymczasem mechanizm działania powoduje, że w pewnym momencie model zaczyna odpowiadać tak, jakby część rozmowy nie została nigdy napisana. A użytkownik dowiaduje się o tym dopiero po fakcie.
W praktyce to przypomina sytuację, w której narzędzie pozwala ci pisać notatki na tablicy, ale nie mówi, że tablica będzie automatycznie ścierana bez ostrzeżenia, gdy zapełnisz ją w 70%. To nie jest „uczciwy kontrakt” z użytkownikiem. To jest pułapka projektowa: zachęta do pracy w sposób, który narzędzie potem unieważnia.
Jeżeli potrzebujesz gwarancji, że zapis rozmowy będzie kompletny i możliwy do wykorzystania w kolejnym kroku, to w praktyce ChatGPT bywa zbyt ryzykowny jako główne narzędzie pracy. Najbardziej problematyczne obszary to:
W tych zastosowaniach ryzyko jest proste: model może „zgubić” część kontekstu lub usunąć część informacji z wątku (sam decyduje), a ty nawet nie będziesz wiedzieć, kiedy to się stało. To przekreśla zaufanie do narzędzia jako bazy wiedzy lub systemu prowadzenia sprawy.
ChatGPT może być użyteczny, ale pod warunkiem, że potraktujesz go jak narzędzie „tu i teraz”, a nie jak repozytorium. Najczęściej sens ma w zadaniach, gdzie utrata historii nie zabija pracy:
W praktyce to oznacza: tak, można prowadzić „rozmówki”. Można prowadzić krótkie sesje. Można używać ChatGPT jako konsultanta, który dostaje dane wejściowe. Ale jeśli próbujesz zrobić z niego system pamięci i ciągłej dokumentacji, wcześniej czy później wpadniesz w ścianę.
OpenAI opisuje mechanizmy pamięci i historii czatów, ale jednocześnie podkreśla, że ChatGPT nie zachowuje wszystkich szczegółów z wcześniejszych rozmów (to mocne niedopowiedzenie i wprowadzanie w błąd - bo są USWANE wybiórczo informacje z wątku, jakbyś nigdy ich nie podał). Pamięć ma służyć raczej preferencjom i informacjom wysokopoziomowym niż temu, żeby przechowywać długie, szczegółowe logi dzień po dniu (znowu niedopowiedzenie, bo USUWA informacje z wątku, które dodasz danego dnia przy prowadzeniu dyskusji (jeśli to jest wątek kontynuowany z innych dni). Jeżeli ktoś liczy, że pamięć naprawi problem ucinania kontekstu, może się rozczarować.
Jeżeli płacisz i wkładasz czas, to nie prosisz o cuda. Prosisz o minimum uczciwości: jasną informację, że model nie będzie w stanie uwzględniać całej historii rozmowy po przekroczeniu pewnej objętości oraz ostrzeżenie w momencie, gdy zaczyna USUWAĆ informacje z wątku. Brak takiej transparentności sprawia, że produkt może wyglądać na bardziej „ciągły” i „pamiętający”, niż jest w praktyce.
To jest sedno problemu: nie sama technologia, tylko sposób, w jaki łatwo uwierzyć, że rozmowa jest sensownym miejscem do długiej pracy, a potem zapłacić za to czasem i nerwami.
Jeśli narzędzie ma być traktowane poważnie przez użytkowników, którzy płacą i pracują na dużej objętości danych, powinno mieć co najmniej:
Bez tego ChatGPT pozostaje narzędziem świetnym do krótkich zadań i doraźnej pomocy, ale we wszelkim innym traci jakikolwiek sens.
Jeżeli ktoś oczekuje, że rozmowa w czacie jest trwałym zapisem, to w praktyce może zostać wprowadzony w błąd przez samą formę produktu. Długie wątki potrafią USUWAĆ podawane przez ciebie informacje, tracić kontekst, a użytkownik nie dostaje w porę jednoznacznego ostrzeżenia. To dyskwalifikuje ChatGPT jako podstawowe narzędzie do dokumentacji i wielu zastosowań biznesowych, w których kompletność i ciągłość są warunkiem sensu. W takim układzie ChatGPT jest użyteczny głównie jako narzędzie jednorazowe: do analizy (niezbyt dokładnej), szkiców, redakcji i wyjaśnień, ale nie jako „pamięć” czy repozytorium prawdy.
Autor: Grzegorz Wiśniewski, red. naczelny Mindly.pl, CEO Soluma Group, CEO Soluma Interactive.