Chat GPT jednak ma poglądy! I to bardzo skonkretyzowane.

Redakcja
30.08.2023

Od momentu wybuchu „histerii AI” podkreślam, że ślepa fascynacja narzędziami sztucznej inteligencji, zwłaszcza przeznaczonymi do tworzenia treści, jest bardzo ryzykowna. Chat GPT czy Google Bard to nic innego, jak modele językowe, które wbrew temu, co twierdzili ich twórcy, nie są ani obiektywne, ani niezależne od ludzi. W rzeczywistości sztuczna inteligencja może być i jest odpowiednio „szkolona” w taki sposób, by wyrażała konkretne poglądy. Właśnie udowodnili to brytyjscy naukowcy.

„Lewicowy” Chat GPT

Badacze z University of East Anglia dokładnie przyjrzeli się domniemanym preferencjom najpopularniejszego narzędzia AI na świecie, czyli Chat GPT. Od dawna pojawiały się doniesienia, jakoby oprogramowanie Open AI faworyzowało i wręcz promowało liberalne, nawet lewicowe treści. Okazało się, że tak rzeczywiście jest.

Naukowcy zadali Chat GPT proste pytania dotyczące m.in. preferencji politycznych oraz tematów światopoglądowych. Narzędzie jest pod tym względem naprawdę sprecyzowane. Wyraźnie faworyzuje np. amerykańskich Demokratów, lewicowego prezydenta Brazylii Lulę da Silvę, popiera ograniczenie dostępu do broni palnej czy prawo do dokonywania aborcji.

Twórcy Chat GPT ustosunkowali się do wyników badania. Stwierdzili, że nie ma mowy o ręcznym sterowaniu „poglądami” narzędzia, choć przyznali, że proces „szkolenia” sztucznej inteligencji rzeczywiście ma miejsce.

Sugerują natomiast, że lewicowe preferencje Chat GPT są wynikiem tego, że właśnie taka narracja dominuje w sieci, co siłą rzeczy wpływa na zbieranie, przetwarzanie i selekcjonowanie informacji znalezionych przez sztuczną inteligencję, a następnie podawanych użytkownikom w formie gotowych tekstów.

Dlaczego widzę w tym niebezpieczeństwo?

Gwoli ścisłości: nie mam nic do niczyich poglądów. Równie zaniepokojony czułbym się w momencie, gdyby badanie naukowe wykazało prawicowe „odchylenia” Chat GPT i innych narzędzi AI. Chodzi o sam fakt, że sztuczna inteligencja, wbrew wcześniejszym zapowiedziom, nie jest obiektywna – bo i nie może być, skoro mamy do czynienia z modelem językowym.

Można sobie łatwo wyobrazić, że skoro chatboty mają preferencje światopoglądowe i polityczne, to mogą również wybiórczo traktować różne informacje merytoryczne, dowolnie wybierać stronę jakiegoś sporu naukowego, a nawet faworyzować konkretne przedsiębiorstwa, produkty czy usługi – zgodnie z zamówieniem jakiegoś odpowiednio bogatego podmiotu.

Piszę o tym, ponieważ wiem, że coraz więcej osób, w tym przedsiębiorców, rozważa zastąpienie sztuczną inteligencją np. copywriterów czy grafików komputerowych, upatrując w tym świetny sposób na oszczędności.

Wiele firm korzysta z chatbotów do opracowywania tekstów, streszczeń, nawet tworzenia całych kampanii marketingowych, prawdopodobnie nie do końca zdając sobie sprawę z tego, że rozwiązania zaproponowane przez AI mogą być i najpewniej są mocno obarczone stereotypami i konkretną narracją forowaną przez twórców danego modelu językowego.

Jest to bardzo niebezpieczne, ponieważ np. może spowodować, że dana marka przestanie być atrakcyjna dla sporej grupy konsumentów mających odmienne poglądy i wrażliwych na pewne zachowania, stwierdzenia czy przekonania.

Komentarz Grzegorza Wiśniewskiego, CEO Soluma Group, redaktora naczelnego Mindly.pl

Zgłoś swój pomysł na artykuł

Więcej w tym dziale Zobacz wszystkie