top of page

Prompty to nie wszystko. Czy Twoja firma ma już całościową strategię wdrażania AI?



Przed każdym szkoleniem na temat AI, które prowadzę dla różnych firm (działy marketingu, agencje reklamowe, PR, agencje badawcze), zwykle przeprowadzam wśród uczestników badanie potrzeb i oczekiwań związanych z obszarami, które według nich mogą być wspierane narzędziami AI.

Co ciekawe, niezależnie od branży i specjalizacji odpowiedzi te są bardzo podobne. I tak np. na pytanie: „W jakim kontekście zawodowym i do jakich konkretnych zadań chciał(a)byś w przyszłości wykorzystywać narzędzia AI?”, uczestnicy odpowiadają, że ich kluczowe potrzeby to:



• Treści marketingowe i tworzenie konkretnego contentu – jest to najczęściej wymieniany obszar, obejmujący różnorodne aspekty tworzenia treści i grafik (np. KV, wizualizacje, hasła reklamowe, copy),

• Wsparcie kreatywne – jest to obszar drugi pod względem popularności i mocno powiązany z poprzednim, tu jednak skupiający się na generowaniu pomysłów i ogólnym wsparciu procesów kreatywnych (generowanie koncepcji, szukanie innowacyjnych rozwiązań, „burza mózgów” itp.),

• Analiza danych i badania – to kolejne pole, z naciskiem na analizę trendów, rynku, ale też tworzenie treści prezentacji np. z wynikami badań,

• Optymalizacja procesów – to już mniej popularny obszar, wskazujący na potrzebę automatyzacji i usprawnienia codziennych zadań,

• Wsparcie obsługi klienta – takie zagadnienia okazują się najmniej popularne, obejmują różne tematy dotyczące komunikacji z klientem czy planowania treści do social mediów.


Wskazywane tematy wynikają rzecz jasna ze specyfiki firm, z jakimi najczęściej pracuję, dają jednak pewne wyobrażenie na temat ogólnych i aktualnych oczekiwań biznesu w stosunku do mnożących się dziś szybko narzędzi AI generatywnej. Nie odbiegają też one znacząco od tego jakie miejsce AI generatywne znajduje w życiu statystycznego użytkownika (najczęściej jest to zamiennik wyszukiwarki lub źródło inspiracji, kiedy brakuje pomysłów - zob. aktualne badanie Payback obrazujące stosunek Polaków do sztucznej inteligencji).


Z kolei problemy, bariery i wyzwania stojące na drodze pełnego wykorzystania możliwości AI wymieniane w ankietach, które wysyłam uczestnikom, skupiają się na takich aspektach jak:


• Brak wiedzy na temat narzędzi AI (wynikający najczęściej z braku czasu),

• Nieznajomość zasad pisania i stosowania skutecznych promptów,

• Wiarygodność i rzetelność uzyskiwanych wyników,

• Wątpliwości w zakresie praw autorskich.


Tu więc, jak widać, pojawia się klasyczna triada: Wiedza – Umiejętności – Postawa, charakterystyczna dla każdego kontekstu edukacji zawodowej czy procesów rozwojowych – w tym również tych związanych z poszerzaniem kompetencji. AI wśród pracowników wielu firm traktowane jest zatem bardzo zdroworozsądkowo, a oczekiwania z nim związane dosyć dobrze oddają realne możliwości większości popularnych narzędzi.


AI staje się więc najczęściej po prostu kolejną nakładką i „wzmacniaczem” typowych narzędzi biurowych i graficznych jak Word, Excel, Photoshop, Canva itd. Zgodne jest to również z tendencją producentów (np. Microsoft, Google, Adobe), by dotychczasowe narzędzia wzbogacać „wtyczkami” AI i integrować z ekosystemem, tego, co dobrze sprzedaje się w korporacyjnych pakietach. Najlepszym chyba przykładem jest tu Copilot, niemal siłowo już dołączany do wszystkich rozwiązań ze stajni Microsoft.


Syndrom nadmiarowości funkcji?

Biurowe pakiety „boostowane” wtyczkami AI zamieniają się jednak najczęściej w błyszczące, ale zupełnie nieprzydatne gadżety. Bo teoretycznie (i nawet praktycznie) można np. wypuścić całą prezentację PPT z jednego prompta. Jednak każdy, kto próbował to robić, zdaje sobie sprawę, że nie będzie się to raczej wiązało z oszczędnością czasu i epitetem „produktywności” (bezwiednie dziś przypinanym do AI). Formatowanie, poprawianie i iterowanie takiego niby-produktu trwać będzie bowiem o wiele dłużej niż tradycyjne, bez-ej-aj-owe podejście i ręczna robota w składaniu slajdów. Inna rzecz, że okna kontekstu w takich wtyczkach są zwykle limitowane (np. do 2000 tokenów), podobnie jak liczba slajdów (np. do 7), co w zasadzie uniemożliwia pracę nad prezentacją tematycznie bardziej złożoną niż np. „Ogólne zasady BHP w miejscu pracy”.


AI-owe pluginy przypominają więc często inne udogodnienia i możliwości dotychczasowych narzędzi – np. makra, które można przecież pisać i wykonywać praktycznie w każdym programie biurowym. Poza jednak specjalistycznymi lub niszowymi zastosowaniami są one rzadko wykorzystywane – najczęściej dlatego, że „zwrot z inwestycji” w postaci czasu potrzebnego na ich formułowanie i testowanie bywa najczęściej nieadekwatny do uzyskanych efektów.

Makra czy proste automatyzacje dostępne w popularnych narzędziach są rzecz jasna niezwykle pożyteczne. Sprawdzają się jednak w bardzo wąsko zdefiniowanych i powtarzalnych zadaniach posiadających przewidywalne struktury (np. automatyczne adresowanie setek listów, zmiany nazwy plików, tworzenie raportów, proste przeformatowania itp.).


Tego rodzaju nadmiarowość funkcji nie staje się jednak żadnym ułatwieniem. Przypomina to sytuację, w której sięgamy po pilot do telewizora, by po prostu zmienić kanał i musimy się zastanawiać, który z dziesiątków kolorowych przycisków wybrać, by nie musieć później walczyć z tym, że przestawiliśmy przypadkowo język menu na chiński. Syndrom nadmiarowości funkcji (feature fatigue) rodzi najczęściej jedynie przeciążenie informacyjne i irytację.


Praca marketingowa niełatwo poddaje się automatyzacji. Pozornie jest tu do wykonania wiele zadań składających się z elementów i procesów powtarzalnych z rytmiczną bolesnością. Ale jak pokazuje praktyka, są to jedynie pozory. Algorytmizacja realnych zadań okazuje się praktycznie niemożliwa. Gdyby było inaczej, to procesy onboardingowe sprowadzałyby się do przekazania nowemu pracownikowi pakietu precyzyjnie spisanych procedur, które ten ma po prostu wykonywać, trzymając się wytycznych na zasadzie: oto definicja -> IF -> THEN.


Tego rodzaju podejście może się rzecz jasna sprawdzać w czynnościach najprostszych – tam, gdzie wystarczy klarowny skrypt i odpowiednie „środowisko wykonawcze” (czyli np. w call center). Jednak nawet wówczas potrzebny będzie minimalny choćby nadzór i ingerencja w tzw. sytuacjach nietypowych i niespodziewanych.

Podobny zresztą problem występuje w zautomatyzowanej obsłudze klienta (np. w postaci chatbotów). Dobrze skonfigurowany bot odpowie na większość pytań klienta i udzieli adekwatnych informacji. Jednak nawet wtedy musi istnieć możliwość uruchomienia kanału komunikacji human-to-human. Jako użytkownicy doskonale znamy to błogie uczucie, że możemy w końcu usłyszeć: „Za chwilę połączysz się z konsultantem…”


Pomimo tempa rozwoju modeli LLM i ich możliwości konwersacyjnych nadal zdarzają się sytuacje na tyle złożone kontekstowo i nietypowe, że niezbędna okazuje się ingerencja człowieka. Prawdopodobnie jutro będzie ona mniej potrzebna niż dziś, a pojutrze być może w ogóle. Niemniej jednak „tu i teraz” nawet najdoskonalsze AI jest wciąż mniej adaptacyjne i kreatywne w obliczu nowych sytuacji środowiskowych niż nasz białkowy gatunek.

Zadania marketingowe to więc w zasadzie permanentna sytuacja „nietypowa”, wciąż nowa pomimo pozorów powtarzalności, sytuacja odmienna, wyjątkowa, indywidualna i osadzona w dynamicznym i złożonym kontekście. Konkurencja i konsumenci każdego dnia potrafią zaskoczyć działaniem wymagającym szybkiej reakcji, a rynek jako taki stanowi odwieczną zagadkę co do ukrytych praw, które nim rządzą, a tym samym nieustanną niespodziankę dla naszych planów.


Krok wstecz...

W jaką zatem wiedzę i umiejętności warto inwestować dziś w firmach, by wykorzystać wznoszącą falę AI i popłynąć nieco szybciej i dalej?

W medialnym dyskursie pojawiają się tu zazwyczaj dwa wątki:

- znajomość narzędzi AI.

- umiejętność pisania promptów.

Co to jednak oznacza w praktyce?


Cofnijmy się na chwilę kilka dekad w przeszłość, kiedy pojawiły się narzędzia „office”. Co oznaczała wówczas ich znajomość (do dziś wpisywana często i wręcz wymagana w CV)? Obsługa edytora tekstu, arkusza kalkulacyjnego czy programu do układania slajdów niewiele się przecież różni od obsługi maszyny do pisania czy kalkulatora (obsługa zwykłych liczydeł jest większym wyzwaniem). Zresztą układ klawiszy na laptopie (QWERTY) zachował tę samą logikę co układ klawiszy czcionek maszyn mechanicznych. Pracownicy, którzy przesiadali się z maszyn mechanicznych na komputery, byli przeszczęśliwi, że nie muszą już wymieniać taśmy, uważać na tzw. zacinającą się karetkę i odblokowywać zakleszczonych czcionek. Jednocześnie byli często przerażeni koniecznością opanowania instalacji oprogramowania, uczeniem się tego, jak zapisywać dokumenty, aktualizować system itp. Zwłaszcza w okresie „pre-okiennym”, gdy trzeba było opanować DOS czy menadżera Norton Commander, by komputer zechciał cokolwiek zdziałać.

 Pojawienie się genialnych „okien”, zwykłych „folderów” i kosza na śmieci w rogu „biurka” (geniusz S. Jobsa) sprawiło, że obsługa komputerów stała się bardziej intuicyjna i wygodna. Nie zmieniły się jednak w zasadzie zupełnie zadania realizowane przy pomocy tych narzędzi.


Raport dla zarządu na temat udziałów rynkowych czy spodziewanych ruchów konkurencji zawierał w zasadzie identyczne treści i logikę w latach 50., 70. czy 90. ub. wieku, jak ten pisany dziś. Rzutniki slajdów na folie zastąpione zostały projektorami podłączonymi do laptopów, ale liczba i treść „bulletów” na slajdach jest wciąż taka sama.

 Powód jest w zasadzie prozaiczny – czynności intelektualne pracowników epoki mechanicznych maszyn do pisania nie ewoluowały przecież w takim tempie jak rozwój procesorów. Sposób myślenia i formułowania problemów przez menedżera w latach 70. jest w zasadzie identyczny jak ten, odbywający się w głowie współczesnego marketera schylonego nad laptopem czy wpatrzonego w ekran smartfona.


Czy ówczesny marketer (powiedzmy z lat 50.) przeniesiony w czasie do współczesności miałby jakiś kłopot z adaptacją do współczesnych „narzędzi”? Czy byłoby dla niego wielkim wyzwaniem szybkie opanowanie współczesnego pakietu office, by przygotować prezentację dla zarządu?

Idę o zakład, że nie byłoby to dla niego najmniejszym problemem. Ba, mam nawet wrażenie, że mogłaby to być dużo lepsza prezentacja. Obawiam się również, że w drugą stronę podróż w czasie byłaby dużo trudniejsza. Bo mam nieodparte wrażenie, że przygotowanie merytorycznego, a zarazem atrakcyjnego i estetycznego raportu przy pomocy np. pióra, linijki, papieru i liczydeł wymaga znacznie większych umiejętności niż naciskanie „copy / paste”, autokorekta czy zamiana tabelki w wykres jednym kliknięciem.

Narzędzia to zatem jedno, zaś cel i sposób ich wykorzystania to już zupełnie inna bajka.


Czego się więc uczyć?

O jaką więc znajomość narzędzi AI miałoby chodzić? Czy pracownik tworzący prezentację w PowerPoint (ponieważ firma kupuje takie, a nie inne komputery i oprogramowanie) musi znać obsługę Keynote, Prezi, LibreOffice Impress, Google Slides, Calligra Stage itd. itp.?

Oczywiście, że nie musi. Bo i po co. Zwłaszcza, że podstawowa logika „przełączników i pokręteł” wszędzie będzie identyczna. Chyba że czas poświęcany na ich naukę będzie jego czasem prywatnym, a motywacją np. hobbistyczne skłonności do porównywania różnych programów prezentacyjnych.

 Podobnie z narzędziami AI – czy pracownik „skazany” na korzystanie z ChatGPT Team lub Copilot ze względu na odgórne decyzje korporacyjne powinien uczyć się, jak działa Claude, Mistral czy swojski Bielik?

Oczywiście, że nie musi. Bo i po co? Zwłaszcza, że takie narzędzia coraz częściej będą też oparte na identycznych „silnikach” – modelach na zasadzie „Intel Inside”.


Prędzej czy później kurz opadnie i każda firma wprowadzi własną, żelazną politykę związaną z tym, co zainstalowane jest na biurowym laptopie. Jedni, w zakresie AI podpiszą umowy z wiodącym dostawcą, jakim jest Microsoft, inni wybiorą Google, jeszcze inni Amazon albo Nvidia itp. Inna rzecz, że systemy i narzędzia bardzo często przenikają się i są łączone w przeróżnych konfiguracjach wynikających ze specyficznych potrzeb biznesowych.

Kalkulacje kosztowe oraz np. rekomendacje działu IT będą tu miały większe znaczenie niż osobiste preferencje szeregowych pracowników zatrudnianych w danej firmie. Podobnie jak dziś nie mają oni praktycznie żadnego wpływu na to, czy spotkania zdalne prowadzone są w organizacji poprzez Teams, Meets czy Blue Jeans, podobnie zresztą jak na to, jaka marka aut została wybrana przy zakupach floty firmowej.


Co zatem z drugą kwestią – „pisania promptów” – czyli skuteczną komunikacją z narzędziami AI oficjalnie wybranymi już przez firmę?

 Krótkoterminowo wydaje się to umiejętność dosyć istotna (podobnie jak cały „prompt engineering”), czy jednak faktycznie warto ją aż tak przeceniać?

„Inżynieria zachęt” wyłoniła się jako specyficzny obszar badawczy – służący do testowania i usprawniania LLM, i kiedy te trafiły pod przysłowiowe strzechy firm na całym świecie (premiera ChatGPT) stała się swoistym języczkiem u wagi.

Prompt engineering jest jednak w istocie niezwykle prosty w założeniach podstawowych: musisz wiedzieć, co chcesz zrobić, i wyjaśnić to „asystentowi” w klarowny sposób. Musisz zatem opisać szczegółowo kontekst, wskazać zadanie i podać warunki oczekiwanego rezultatu (np. jego format). I to w zasadzie wszystko. Pisanie promptów sprowadza się zatem do cierpliwego tłumaczenia modelowi, co ma dla nas wykonać, do ciągłej weryfikacji wyników i do bezustannych poprawek i ulepszeń w kolejnych zadaniach.

Metareguły można tu więc zamienić w zbiór zaleceń w rodzaju:


  • Wiedz, co chcesz wiedzieć.

  • Myśl logicznie i sekwencyjnie.

  • Używaj jasnych struktur i formatów podpowiedzi instrukcji.

  • Pracuj z gęstym kontekstem.

  • Używaj wielu przykładów (technika n-shot)

  • Eksperymentuj i poprawiaj.


Dokładnie te same umiejętności trzeba posiadać podczas szkolenia nowego pracownika (np. na stanowisku juniora). Metareguły są tu identyczne. Trzeba mu zatem dokładnie i szczegółowo wyjaśnić, co ma robić (np. krok po kroku - pro. 'chain-of-thought'), podać konkretne przykłady, klarowne oczekiwania co do efektu itp. Ramy tego rodzaju instruktaży są identyczne jak te stosowane w technikach prompt engineeringu.

Czy zatem każdy pracownik np. działu marketingu powinien posiadać takie instruktażowe kompetencje? Są one na pewno niezwykle istotne przy wdrażaniu stażystów, ale czy konieczne do dobrego wykonywania codziennych obowiązków?


Dyskutować na ten temat można pewnie godzinami. Bo na pewno umiejętność instruowania pracowników z mniejszym doświadczeniem jest jedną z miar ogólnych kompetencji osoby, która taki proces prowadzi. Z drugiej jednak strony jest praktyka i tzw. samo życie. Istnieje wielu pracowników, którzy są świetni w codziennej pracy, ale nie do końca potrafią zamienić swoją wiedzę na zbiór definicji, procesów i instrukcji, nie mówiąc już o ich przekazywaniu. Pewne rzeczy robią po prostu w oparciu o doświadczenie, intuicję i praktyczne heurystyki, a w dodatku np. osobowościowo nie mają cierpliwości do tłumaczenia tego i szkolenia innych.


 Prompt engineering niestety właśnie do tego się sprowadza. Szczegółowego rozpisania instrukcji, monitów i procedur. Do rozpisywania kontekstów zadaniowych, sformatowania odpowiednich przykładów i ciągłych iteracji – optymalizowania „outputu” przy kolejnych, drobnych lub większych zmianach wprowadzanego na wejściu „input”.

Czy nie jest zatem zbyt idealistyczne lansowane często założenie, że prompt engineering będzie uniwersalną kompetencją przyszłości?


Na takie pytanie nie potrafię odpowiedzieć, ponieważ przyszłości nie znam. Biorąc jednak pod uwagę znaną mi przeszłość, mam wrażenie, że na pewno jest ono mocno ambitne. Podobnie jak przekonanie o tym, że „wszyscy powinniśmy uczyć się kreatywności”. Na pewno możemy, ale czy faktycznie musimy?

Uczyć się nowych rzeczy jest na pewno fajnie i przyjemnie. Kiedy jednak zaczynamy uczyć się zbyt wielu i zbyt szybko, to efekty mogą być - delikatnie mówiąc - co najmniej niesatysfakcjonujące.

Poza tym magiczna wiara w to, że „dobry prompt” załatwi wszystko i nagle AI wykona za nas całą pracę i rozwiąże wszystkie problemy, nie wytrzymuje konfrontacji z przyziemną rzeczywistością.


Jak zatem wdrażać AI w organizacji w sposób sensowny?

 Przede wszystkim z rozmysłem i nie na hurra. Podobnie jak ze zjadaniem słonia – metodycznie i dzieląc go na mniejsze i łatwiejsze do połykania plasterki.

 Żaden dział w firmie nie działa w próżni, a AI to po prostu jeden z wielu aspektów nowych technologii, które mogą zwiększać performance i co za tym idzie rentowność danego przedsięwzięcia. Warto więc patrzeć na to jak na kolejną inwestycję, która powinna przynieść zyski w przyszłości.


Inna rzecz, że powszechne wykorzystanie AI może sprawić, że trudno tu będzie mówić o jakimkolwiek zysku – stanie się ona po prostu kosztem, który należy ponosić, aby w ogóle konkurować czy nie wypaść z rynku. Podobnie jak np. reklama. Na ile okazuje się ona rentowną inwestycją, a na ile po prostu kosztem działalności, wiedzą jedynie księgowi.

Tu więc pojawia się pierwszy duży znak zapytania: ile warto inwestować w to całe AI i jakiego zwrotu oczekiwać?

Pozornie istnieje na ten temat wiele danych. Często jednak dotyczą one bardzo ogólnych wzrostów - np. PKB czy wzrost wartości danej gospodarki związany z różnymi zastosowaniami AI (McKinsey & Company). Pojawiają się również specyficzne wskaźniki – np. fakt, że generatywna AI może poprawić obsługę klienta „zwiększając wskaźniki rozwiązywania problemów o 14% na godzinę i skracając czas obsługi problemów o 9%, co teoretycznie prowadzi do wyższej produktywności i niższego wskaźnika rotacji pracowników (BCG Global). Trudniej jednak znaleźć konkretne dane jaki był całościowy koszt wdrażania rozwiązań AI i ile faktycznie firma na tym zarobiła dodatkowo w określonym czasie [1].


Duże wrażenie robią też wskaźniki w rodzaju „40% zwiększenia wydajności”. Tyle tylko, że kiedy wczytać się w raporty z takich badań, są to najczęściej wyniki jakichś sztucznych symulacji (MIT Sloan) i nie do końca jest jasne czego te 40% faktycznie dotyczy?

Występuje tu również wiele zakłócających zmiennych co skutkuje trudnością w wyizolowaniu wpływu AI od innych czynników. Innym problemem jest tu także krótki zakres czasowy obserwacji, trudności w skalowaniu wyników na inne branże. Tego rodzaju badania milczą też najczęściej na temat kosztów wdrożenia – trudno się tu dowiedzieć jakie były pełne koszty - np szkoleń, integracji systemów czy ich utrzymywania.


W zasadzie zatem niewiele chyba jeszcze obecnie można powiedzieć na temat ROI z AI generatywnej. Podobnie jak na temat krzywej uczenia się w tym obszarze. Wpływ AI na wydajność może być obecnie znacznie zawyżany lub zaniżany. Najprawdopodobniej to drugie - szczególnie, że znajdujemy się w początkowej fazie wdrożeniowej związanej np. z koniecznością przeszkolenia całych rzesz pracowników i ich adaptacji do zupełnie nowych narzędzi.

Trudno jednak sensownie tu szacować, ile faktycznie „włożyć”, aby z tego coś sensownie „wyjąć”. W tym kontekście strategia wielu firm polegająca na przeczekaniu i obserwacji „jak to robią inni” wydaje się jak najbardziej zasadna i zdroworozsądkowa.


 Kolejna kwestia to całościowa i długoterminowa strategia wykorzystywania AI w całej organizacji. Firma to przecież mechanizm naczyń połączonych – żaden z działów nie jest izolowaną wyspą (nawet jeśli tak o sobie myśli) w kontekście technologicznej infrastruktury. Wdrożenia (lub ich brak) AI w jednym obszarze będą skutkować na inne funkcje przedsiębiorstwa. Potrzebne jest zatem spojrzenie holistyczne, obejmujące całą dynamiczną strukturę.

Strategia taka powinna też bazować na szczegółowej analizie takich obszarów jak jakość danych i ich bezpieczeństwo . Skuteczność AI zależy bowiem w dużej mierze od jakości danych, na których jest trenowana. Potknięcia w tym zakresie mogą zaś prowadzić np. do błędnych lub nieprzydatnych „dzieł” i wniosków generowanych przez AI (= zwiększone ryzyko strat).



 Wracamy więc do kwestii kosztów. Przygotowanie danych, czyszczenie ich, formatowanie w sposób przyjazny dla modelu czy tworzenie własnych baz wektorowych i RAG, tuningowanie modeli itp. to więcej niż spore koszty, jeśli np. mamy obszerne bazy danych, tysiące dokumentów, zestawień itp. Kiedy i jak koszty te zaczną się zwracać? Who knows.


Do tego wszystkiego dochodzi czynnik kulturowy. A kultura, jak wiadomo, zjada organizację na śniadanie. Firmy, które np. z dnia na dzień zaczynały wdrażać tzw. „kulturę innowacyjności” wiedzą dokładnie, co mam tu na myśli. Jeśli firma ma odnosić korzyści z AI, to może to robić wyłącznie jako cały organizm. Przestawienie zaś mentalności wszystkich pracowników na zupełnie nową perspektywę to zadanie znacznie trudniejsze niż inwestycje w nowe serwery, modele uczenia maszynowego, stawianie „asystentów” dla zespołów czy „opromptowanie” istniejących procesów.

I tym samym zmierzam do nieuchronnej pointy. Bo w moim przekonaniu to właśnie kultura poprzedza strukturę i funkcję. Pewne wartości, przekonania, niepisane reguły, zwyczaje i rytuały zawsze na tzw. koniec dnia okazują się ważniejsze niż technologiczne novum.


 Wdrażanie AI należy więc rozpoczynać właśnie od tego obszaru – szerokiego dyskursu w całej firmie i dialogu, badaniu i audytowaniu potrzeb i możliwości, diagnozie stanu obecnego i budowania scenariuszy przyszłości, wspólnego formułowania celów i oczekiwań. I dopiero po systematycznym przepracowaniu takiej wiedzy może następować synteza – formułowanie wniosków i zadań wykonawczych; decyzji co do konkretnych narzędzi, nowych stanowisk itp. Dopiero wtedy też warto inwestować w szkolenia i podnoszenie kompetencji AI. Następnie zaś gromadzić feedback od pracowników i klientów, monitorować efekty i wdrażać kolejne zmiany. Wszystko wskazuje na to, że AI to będzie wielki i ważny projekt na wiele kolejnych lat. Więcej zaś można stracić (znowu te nieszczęsne koszty) wprowadzając go spontanicznie i chaotycznie, niż zyskać - np. ulegając ogólnej presji i gorączce i przesadnym emocjom.

Marek Staniszewski


[1] Jeśli chodzi o tzw. produktywność, to jak wynika z różnych badań (przy zachowaniu ostrożności co do generalizacji wyników), to w jakimś zauważalnym stopniu podnosi się ona jedynie w przypadku pracowników... o najniższych kwalifikacjach. Okazuje się też, że np. dostęp do GPT-4 tylko nieznacznie i w sposób niekonsekwentny poprawia np. jakość wykonywanych analiz - choć co prawda wykonywane są one nieco szybciej. Pracownicy o najmniejszym doświadczeniu coś więc na tym zyskują, ci bardziej doświadczeni niewiele lub wcale zwiększają swój 'performance' (zob. np. aktualne badanie w branży prawniczej.)

Myślę jednak, że zbliżone wyniki uzyskano by badając o ile lepiej i szybciej pracownik wykonuje zadanie mając np. dostęp do internetu, od tego, któremu ten dostęp odcięto...

Comments


Ostatnie posty
Archiwum
Wyszukaj wg tagów
Podążaj za nami
  • Black LinkedIn Icon
  • Black Twitter Icon
  • Black Blogger Icon
  • Czarny Google+ Ikona
  • Black Facebook Icon
bottom of page