Kultura zjada AI na śniadanie, czyli w jaki sposób zmieniać się tak, aby nic nie zmienić
Fakt, przyszło nam żyć w ciekawych czasach. Oto znaleźliśmy się w szczęśliwej sytuacji, gdy dzięki inteligentnym chatbotom takim jak ChatGPT, Copilot, Claude, Gemini czy Mistral każdy otrzymuje nieograniczony niemal dostęp do rozległych zasobów wiedzy z praktycznie każdej dziedziny.
Narzędzia te nie są jeszcze w pełni doskonałe i nieomylne. Wciąż czasami zdarza im się jakaś faktograficzna pomyłka (problem tzw. halucynacji wynikający z probabilistycznej natury dużych modeli językowych). Nie zmienia to faktu, że ich rozległa wiedza czy sposób wnioskowania biją na głowę przeciętnego użytkownika.
Mamy więc sytuację, w której każdy z nas otrzymuje dostęp do usług „genialnego asystenta” – omnibusa, erudyty wypełnionego ekspercką wiedzą z dowolnego pola, znającego większość języków. Takiego, który potrafi w ciągu kilku sekund nie tylko przeanalizować kilkusetstronicowy dokument. Może on też np., łącząc odległe dyscypliny naukowe, zbudować oryginalne hipotezy czy wypracować długą listę nowatorskich pomysłów.
Można by przypuszczać, że za sprawą AI nastąpi więc jakaś szybka i radykalna zmiana w jakości naszej pracy
Moglibyśmy oczekiwać, że diametralnie zmieni się sposób wykonywania zadań i rozwiązywania problemów. Że nagle nastąpi boom nowatorskich rozwiązań i eksplozja kreatywności. Większość problemów, z którymi musimy się na co dzień borykać, odejdzie do lamusa.
Z jakichś dziwnych przyczyn wciąż się jednak tak nie dzieje. Demokratyzacja dostępu do genialnych personalnych asystentów w żaden sposób nie chce się przemienić w gwałtowny skok powszechnej produktywności czy inwencji. Firmy w większości przypadków pracują dokładnie tak samo, jak pracowały dwa lata temu. Przypomnijmy, że ChatGPT udostępniono publicznie 30 listopada 2022 roku. Pracownicy w większości przypadków te same problemy rozwiązują w ten sam sposób.
Oto paradoks: dostępność vs wykorzystanie GenAI
Wydaje się on na tyle intrygujący, że warto poświęcić mu chwilę. Sama bowiem dostępność narzędzi, jak się okazuje, nie musi się automatycznie przekładać na ich stosowanie i efektywne wykorzystanie. Do kalkulatora, biblioteki publicznej czy Wikipedii teoretycznie każdy również ma dostęp. Co nie oznacza, że każdy potrafi lub zechce z nich korzystać w sposób transformacyjny – taki, który rzeczywiście zmienia i znacząco ulepsza rzeczywistość.
Wiele osób używa AI generatywnej bardzo powierzchownie, np. tylko do prostych, ogólnych zapytań. Albo też dla rozrywki – choćby sprawdzając, co taki ChatGPT odpowie na pytanie: „Czy można uprać kota?”. Barierą okazują się zatem nie tyle ograniczenia samego narzędzia, ile po prostu brak wyobraźni, do czego właściwie je, do licha, zastosować.
Kolejnym hamulcem okazuje się bariera umiejętności
Praca z LLM (dużymi modelami językowymi) pozornie tylko opiera się na prowadzeniu konwersacji. Prawdziwie efektywne wykorzystanie tych modeli wymaga specyficznych kompetencji. Sformułowanie dobrze ustrukturyzowanego i precyzyjnego promptu wymaga często:
głębokiego przemyślenia danego zagadnienia/problemu,
dokonania wielu operacji analitycznych i logicznych,
umiejętności werbalizacji wszystkich tych działań naszego umysłu, które zamierzamy scedować na maszynę.
Czy w szkołach faktycznie uczeni jesteśmy takiej dyscypliny precyzyjnego myślenia? Czy są tam przekazywane techniki pracy intelektualnej bądź metodologia pracy umysłowej pozwalające to, co dzieje się w naszych głowach, wyrażać w sposób klarowny lub takie procesy upłynniać i je wspomagać?
Przy pracy z technologiami przetwarzania informacji liczy się nie tylko jakość przetwarzającego je „silnika”
Równie ważna okazuje się jakość tego, co jest w ogóle przetwarzane. Programistyczna zasada GIGO (garbage in, garbage out) ujmuje to celnie i zarazem lapidarnie.
Umiejętność formułowania myśli to jedno, czym innym jest zaś ocena i weryfikacja tego, co otrzymujemy na wyjściu. W tym wypadku potrzebne jest myślenie krytyczne. Potrzebna jest:
interpretacja i ocena informacji, jakie uzyskujemy z LLM, w sposób logiczny, maksymalnie obiektywny i refleksyjny,
umiejętność zidentyfikowania kluczowych elementów i zależności pomiędzy nimi, aby ustalić ich przydatność.
I to staje się nagle kompetencją równie istotną, co umiejętności techniczne konieczne do pracy z tymi narzędziami. Jak np. płynna obsługa interfejsu, dobór odpowiednich parametrów czy odpowiednie formatowanie danych wyjściowych.
Bo co z tego, że model może zaproponować 10 (albo 100 lub 1000 czy nawet … tu wstaw dowolną liczbę) nowych pomysłów, hipotez czy scenariuszy, jeśli nie za bardzo wiemy, jakie kryteria przyjąć, by wyłonić z nich najlepszego kandydata. Albo nie potrafimy ocenić ich wiarygodności?
Przypomina to sytuację, w której dostajemy do pomocy zespół wybitnych ekspertów, ale nie do końca wiemy, jak sformułować nasz problem czy zadanie, które mają ci szanowni państwo wykonać. Nie umiemy też ocenić jakości porad, które zaczynają wygłaszać.
Inna rzecz, że barierą niby banalną, ale boleśnie konkretną staje się czas – a właściwe jego brak
Praca z LLM wymaga sporo cierpliwości i zdolności do iteracyjnego poszukiwania rozwiązań. Ethan Mollick w swoich publikacjach wspomina o dziesięciu godzinach, które są konieczne, by w minimalnym choćby stopniu oswoić takie narzędzia. Pozornie to niewiele. W praktyce jednak okazuje się, że zawsze jest coś pilniejszego i ważniejszego niż spędzanie czasu na eksperymentowaniu z „inżynierią zapytań”. Sprowadza się to często do postawy w rodzaju: „W głębi duszy wiem, że muszę się nauczyć pracować z tym całym AI, żeby nadążać za światem. Odkładam to jednak na »lepszy moment«, bo tyle jest wciąż rzeczy do zrobienia. A i tak pewnie szybciej to wszystko zrobię po staremu”.
Algorytm sukcesu nie istnieje
Trudno oczekiwać, że model językowy będzie hurtowo i bezbłędnie załatwiał za nas różne sprawy, automatyzował kolejne zadania i tryskał sensownymi pomysłami niczym gejzer, skoro my sami na co dzień tego nie robimy. Gdyby wiedza o tym, jak tego dokonywać, była dostępna, to przecież każdy nowy pracownik w firmie otrzymywałby taką wiedzę już na wejściu. Pierwszą rzeczą, którą by dostawał, byłaby księga z „algorytmem sukcesu”. W niej opisane byłoby krok po kroku, co zrobić, gdy pojawi się problem X, w kontekście Y, a twoim celem jest Z. Jeżeli zaś wydarzy się X1, to sięgnij po procedurę Q4, a następnie porównaj z Y6… itd.
Tego rodzaju magiczna księga niestety nie istnieje. Ba, nawet powszechnie stosowane (a nawet sprawdzone) w firmie procesy, procedury i zasady działania często nie są w żaden sposób sformalizowane, spisane i dostępne dla wszystkich pracowników. Inna rzecz to pytanie, czy warto automatyzować stare procesy, zamiast przy okazji wdrażania AI tworzyć od razu nowe i lepsze…
Kwestia motywacji i inicjatywy
Obecne modele nie są jeszcze w pełni autonomicznymi agentami. Same z siebie nie wezmą się do roboty i nie zaczną myśleć za nas. Za jakiś czas prawdopodobnie i takie powstaną, ale na razie są to narzędzia pasywne i reaktywne. Ich sztuczne „mózgi” oparte na coraz bardziej złożonych sieciach neuronowych wciąż oczekują na pobudzenie, wprowadzenie jakiegoś bodźca i impulsu, na podstawie którego zaczną reagować, formułując odpowiedź.
Tu jednak wciąż potrzebna jest nasza inicjatywa: ciekawość i kreatywność, a czasem wręcz determinacja, by czegoś się dowiedzieć. Sam dostęp do narzędzia nie sprawia jednak, że ta się nagle pojawi i żaden najpotężniejszy LLM na razie (!) nie zastąpi naszej wewnętrznej motywacji, by np. coś zmienić, poprawić czy udoskonalić.
Pracownicy często też nie wykazują żadnej motywacji, aby uczyć się narzędzi AI, z bardzo prostej przyczyny: to im się po prostu zupełnie nie opłaca. Bo co z tego, że dzięki takim narzędziom np. zrobią w ciągu godziny to, co poprzednio robili powiedzmy przez 8 godzin? Czy to oznacza, że po godzinie pracy pójdą do domu? Albo że pozostały czas spędzą w biurze, wypoczywając na wygodnej kanapie i pogryzając fistaszki? Prawdopodobnie nie. Raczej mogą wtedy usłyszeć coś w stylu: „Skoro w godzinę udało ci się przerobić tyle tematów, to tak teraz wygląda twoja nowa lista zadań, na wczoraj…”. I skąd tu brać motywację?
Produktywność to fajne hasło, ale w korpomowie i kolorowych prezentacjach dla zarządu. Jako impuls do zmiany działa realnie i subiektywnie słabiutko.
Jeszcze inną kwestią jest brak zaufania
Wiele osób wciąż ma uzasadnione w dużej mierze obawy co do wiarygodności odpowiedzi udzielanych przez AI. Minie jeszcze pewnie sporo czasu potrzebnego na wypracowanie dobrych praktyk weryfikacji i walidacji generowanych treści. Podobnie jak nieprędko znikną obawy związane z bezpieczeństwem danych.
Zaufanie zawsze zdobywa się z czasem i naszą naturalną postawą jest ostrożność i przezorność. To z reguły długi proces, w którym obserwujemy drugą stronę i uczymy się jej do momentu, gdy nabierzemy pewności, że np. możemy jej przekazać coś cennego. Wiele wskazuje na to, że „myślące maszyny” jeszcze długo będą budziły mniejszą lub większą nieufność.
Można by w tym miejscu wspomnieć jeszcze o lęku przed utratą pracy i zastąpieniem danego stanowiska przez AI. Pracownicy poza medialnymi straszakami słyszą rzecz jasna wiele uspokajających deklaracji od pracodawców. A i sami się pocieszają: „mnie i tak nic nie zastąpi, no bo jak?”. Ale wiadomo, że strzeżonego… itp. Pojawiają się więc także postawy cichego bojkotu AI – każdy kolejny dzień opóźniania wdrożeń takich rozwiązań będzie tu małym zwycięstwem.
Do tego dochodzą również bariery strukturalne
Zdarza się przecież, że ograniczenia formalne czy biurokratyczne w organizacji potrafią już w zarodku zdusić każdy przejaw innowacji. Nowe pomysły wymagają często poważnych zmian systemowych, a opór przed zmianą może skutecznie hamować i tłumić potencjalne korzyści, które zmiana mogłaby przynieść. I nieważne, czy w organizacji pojawi się wszystkowiedzący chatbot-asystent, czy po prostu nowy, jak najbardziej ludzki pracownik z nowatorskimi pomysłami, które są z jakichś względów niewygodne dla zastanego status quo. Nie stanowi to żadnej różnicy.
Wymienione bariery sprowadzają się zatem w dużej mierze do barier psychologicznych i obawy przed samą zmianą.
Niechęć do zmiany wypracowanych nawyków,
mentalność „zawsze tak robiliśmy”,
lęk przed eksperymentowaniem
– wszystko to okazuje się często znacznie silniejsze niż możliwe korzyści. Te ostatnie swoją drogą wciąż są zbyt mizernie udokumentowane, potwierdzone i udowodnione, by miały stanowić niedyskusyjny argument za zmianą.
Adaptowanie rozwiązań AI będzie więc najprawdopodobniej bardzo długim (i bolesnym) procesem
Będzie trwać nie lata, ale być może całe dekady – jak to zresztą miało miejsce przy okazji innych innowacji technologicznych. Trudno również dziś prognozować dalekie konsekwencje systematycznego upowszechniania się AI i scenariusze rozwoju tych technologii.
Ale być może w całym tym paradoksie – pomiędzy potencjałem AI a jego powolną adaptacją – kryje się jakaś głębsza reguła społecznej ewolucji? Bo tego rodzaju ostrożność i nieufność wobec zmian można też potraktować jako naturalny mechanizm obronny, który pozwala nam zachować kontrolę (lub przynajmniej jej iluzję) nad kierunkiem rozwoju technologii.
Z tej perspektywy na cały ten proces spojrzeć można jak na wielki eksperyment społeczny
Wszyscy, chcąc nie chcąc, bierzemy dziś w nim udział. Oto po raz pierwszy otrzymaliśmy do dyspozycji narzędzia zdolne nie tylko do wspierania naszych zdolności poznawczych, ale potencjalnie także do ich przekraczania. I być może tego rodzaju powściągliwość jest jak najbardziej naturalnym i zdrowym odruchem organizmów społecznych. Zapewnia ona czas niezbędny do sensownej adaptacji. W tym wypadku do wypracowania optymalnej symbiozy naszego gatunku z „nowym gatunkiem”, jakim staje się AI.
Jeśli tak jest, to parcie na jak najszybsze wdrażanie AI w jak największej liczbie obszarów nie ma większego sensu. Może działać jedynie przeciwskutecznie, na zasadzie: im większa presja – tym większy opór.
Może po prostu potrzebny jest czas, żebyśmy we własnym, naturalnym tempie stopniowo adaptowali się i wypracowywali zasady współżycia z AI (i vice versa)? I być może czasu tego w żaden sposób nie da się skrócić, przeskakując rączo do „kolejnego etapu”.
Przyjmując, że tak właśnie jest, można pokusić się o sformułowanie kilku praktycznych zasad kształtowania postawy organizacji wobec AI.
Mogłyby one brzmieć następująco:
Zasada organicznego wzrostu. Zamiast wprowadzać rewolucyjne i radykalne zmiany, lepiej postawić na ewolucyjne wdrażanie AI w miejscach, gdzie zapotrzebowanie na nie pojawia się i zgłaszane jest w sposób naturalny.
Zdrowy sceptycyzm. Traktowanie AI nie jako magicznej różdżki na wszystkie problemy, ale jako narzędzi, które wymagają czujnej i krytycznej oceny, weryfikacji i świadomego wykorzystania.
Dojrzałość kompetencyjna. Większe inwestowanie najpierw w rozwój kluczowych umiejętności pracowników w zakresie formułowania problemów, krytycznego myślenia i oceny rezultatów, zanim rozpocznie się wdrażanie nowych narzędzi.
Celowość. Koncentracja na konkretnych problemach do rozwiązania, a nie na samej technologii. Niech AI będzie przede wszystkim środkiem do celu, a nie celem samym w sobie.
Eksperymentowanie. Tworzenie bezpiecznych przestrzeni organizacyjnych (także przestrzeni mentalnych) wyłącznie do testowania rozwiązań AI. Błędy powinny w nich być jak najbardziej dozwolone, aby służyły uczeniu się, bez presji na natychmiastowe efekty.
Respektowanie indywidualnego tempa adaptacji. Różne osoby i różne zespoły czy działy mają własne naturalne tempo adaptacji do zmian. Narzucanie odgórnego zegara takich procesów może działać paraliżująco.
Zasada wartości dodanej. Wdrażanie AI warto rozpoczynać wyłącznie tam, gdzie faktycznie wnosi ono wymierne korzyści lub wartość dodaną do procesów istniejących, zamiast automatyzować „wszystko, co się rusza”.
Być może właśnie przemyślenie i opracowanie tego rodzaju „kompasów” jest dziś wyzwaniem najpilniejszym.
Jak ponoć zwykł mawiać Peter Drucker: „Culture eats strategy for breakfast”
Parafrazując, kultura organizacyjna pożera dziś często całe to AI na śniadanie. Normy, wartości, reguły, rytuały itp. to niewidoczny, ale realny zasób każdej organizacji, mający na nią wpływ decydujący. I każda organizacja sama musi w końcu znaleźć własny złoty środek pomiędzy potencjałem technologii – w tym wypadku AI – a naturalnymi barierami adaptacyjnymi. Dopiero dzięki temu może wtedy osiągnąć równowagę. Znaleźć balans pomiędzy tempem zmian (które są nieuchronne) a potrzebą zachowania kontroli nad ich kierunkiem. Tylko tyle i aż tyle.
Marek Staniszewski
Heuristica
---
Tekst ukazała się w Marketing przy kawie (02.12.24)
Comments