Komentarz Grzegorza Wiśniewskiego, CEO Soluma Group, redaktora naczelnego Mindly.pl.
Nie jestem naiwny i dobrze wiem, że pomimo szlachetnych zapowiedzi większość agencji interaktywnych masowo korzysta z narzędzi AI w codziennej pracy nad projektami klientów. Robią to także pracownicy kierowanej przeze mnie Soluma Interactive. Początkowo się z tym kryli, dlatego zaproponowałem konsensus: będziemy używać tych narzędzi, natomiast w sposób etyczny. Co to oznacza w praktyce? Zapraszam po szczegóły.
Temat AI w marketingu nabrzmiał do tego stopnia, że nie da się dłużej udawać, że to tylko chwilowa moda. Mam pełną świadomość, że obecne i przyszłe narzędzia sztucznej inteligencji staną się standardem przy tworzeniu kampanii, projektowaniu grafiki reklamowej czy pisaniu treści, o ile już się nie stały.
Nie ma sensu być jak ci woźnice, którzy do końca zaprzeczali idei motoryzacji i twierdzili, że nigdy nie zabraknie chętnych na ich usługi. Idziemy więc z trendem, ale na własnych zasadach, które pozwalają nam spać spokojnie, prowadzić otwartą komunikację z klientami i jednocześnie brać pełną odpowiedzialność za efekty naszej pracy.
W Soluma Interactive opracowaliśmy zasady, które pozwalają nam z jednej strony zachować uczciwość w stosunku do klientów i szacunek do własnej pracy, a z drugiej nie udawać Rejtana, który teatralnie broni przegranej sprawy.
Etyczne wykorzystanie narzędzi AI w naszej agencji bazuje na tych kilku prostych zasadach:
Te zasady pozwalają również przygotować naszą agencję na to, co nieuchronne, czyli ukrócenie nieetycznych metod korzystania z AI na potrzeby kampanii marketingowych klientów. Wymuszą to albo sami klienci, albo, co bardziej prawdopodobne, giganci rynku, na czele z Google. Wystarczy przecież istotna zmiana algorytmu wyszukiwania, aby np. zacząć karać strony korzystające z treści wygenerowanych przez AI.
Może i coraz częściej to robi. W Soluma Interactive zauważamy rosnącą liczbę zapytań od klientów, którzy już na wstępie zaznaczają, że oczekują pełnej unikalności zrealizowanego projektu graficznego czy dostarczonych tekstów. To pokazuje, że klienci – wbrew przypuszczeniom niektórych agencji – bywają świadomi, starają się być na czasie z trendami i interesują się narzędziami marketingu internetowego.
Nie zapominajmy, że akcja zawsze powoduje reakcję. Masowe wysługiwanie się sztuczną inteligencją spowodowało, że pojawiły się już aplikacje pozwalające natychmiast zweryfikować, czy np. dany artykuł nie został w 100% wygenerowany przez ChataGPT.
Spodziewam się, że jest tylko kwestią czasu, gdy w umowach z agencjami interaktywnymi zaczną się pojawiać zapisy o zakazie korzystania z AI lub ograniczające zakres używania sztucznej inteligencji np. tylko do researchu.
Obecnie AI jest jeszcze traktowane w formie ciekawostki, dlatego są agencje, które wręcz promują się poprzez podkreślanie, że stworzyły jakąś kampanię w 100% przy wykorzystaniu narzędzi sztucznej inteligencji. Problem w tym, że jeśli AI faktycznie tak świetnie sprawdza się do celów marketingu, to po co właściwie agencja? Im więcej będzie takich sytuacji, tym częściej klienci będą sobie zadawać to pytanie, na czym nasza branża z oczywistych powodów straci.
I tak dochodzimy do puenty mojego komentarza. To nie sztuczna inteligencja jest zagrożeniem dla copywriterów, grafików, programistów czy researcherów. To nie AI pozbawi tych specjalistów pracy. Zrobią to sami, jeśli zaczną wychodzić z założenia, że są sprytniejsi niż klienci i zamiast na serio angażować się w zlecone projekty, będą bez cienia autorefleksji wysługiwać się sztuczną inteligencją.