Zacznijmy od Dataizmu:
Yuval Noah Harari w książce „Homo Deus: Krótka historia jutra" przedstawił koncepcję dataizmu, która jest ze mną cały czas, od 2018 roku. Niezmiennie, jest ona dla mnie ważna i z każdym rokiem, z każdym projektem coraz bardziej do mnie przemawia. Główne założenia są takie:
Wszechświat jako system przetwarzania danych Dataizm traktuje całą rzeczywistość - od galaktyk, przez organizmy żywe, po społeczeństwa - jako sieci przetwarzające dane. Ludzie, zwierzęta, a nawet ekonomia to algorytmy. Kapitalizm i komunizm nie były ideologiami politycznymi, lecz konkurującymi systemami przetwarzania informacji.
Wartość = przepływ danych Coś jest wartościowe o tyle, o ile przyczynia się do swobodnego przepływu i przetwarzania informacji. Blokowanie danych jest złem; maksymalizacja ich cyrkulacji - dobrem.
Człowiek jako algorytm Ludzie nie są wyjątkowi - jesteśmy skomplikowanymi, biologicznymi algorytmami. Skoro tak, to algorytmy cyfrowe mogą nas prześcignąć w podejmowaniu decyzji dotyczących naszego własnego życia.
Internet Wszechrzeczy jako cel Dataizm dąży do stworzenia globalnego systemu przetwarzania danych obejmującego wszystko - ludzi, maszyny, zwierzęta. Harari nazywa to niekiedy „Internetem Wszystkiego".
Dlaczego wspominam o dataizmie?
Ta koncepcja łączy się z moim sposobem widzenia organizacji. Każda firma i każda osoba w niej, każdy proces, każdy system jest w istocie systemem przetwarzania informacji. To, jak sprawnie informacja w organizacji krąży, nabiera znaczenia i zamienia się w decyzję, decyduje o tym, czy firma się rozwija, czy stoi. Koncepcje, które Harari opisuje w skali Internetu Wszechrzeczy, stosują się tak samo do skali jednej firmy. A ich wspólnym mianownikiem jest jezioro danych - data lake.
Data lake i dlaczego dziś same dane nie dają przewagi?
Data lake - czym jest i skąd się wziął. Jezioro danych to koncepcja architektury, w której organizacja gromadzi wszystkie swoje dane w jednym miejscu, w surowej postaci - niezależnie od tego, czy są ustrukturyzowane (tabele, bazy SQL), półustrukturyzowane (JSON, XML, logi) czy nieustrukturyzowane (maile, skany dokumentów, nagrania rozmów, zdjęcia z produkcji, filmy z monitoringu). W przeciwieństwie do klasycznej hurtowni danych, która wymaga, by dane zostały najpierw oczyszczone i dopasowane do sztywnego schematu, data lake przyjmuje wszystko „tak jak jest" i odkłada decyzję o strukturze na później.
To podejście narodziło się z prostej obserwacji: w momencie, w którym projektujemy hurtownię danych, nie wiemy jeszcze, jakie pytania będziemy zadawać naszym danym za dwa lata. Jezioro danych jest odpowiedzią na tę niepewność - „zbierajmy wszystko, a sens nadamy temu wtedy, kiedy będzie potrzebny".
Obietnica, która nie spełniła się automatycznie. Przez ostatnią dekadę jezioro danych było sprzedawane jako święty Graal cyfryzacji. „Zbierz wszystkie dane w jednym miejscu, a wnioski przyjdą same". W praktyce większość jezior danych, które widziałem w polskich firmach zamieniła się w coś co można nazwać data swamp, bagno danych. Wszystko tam jest, ale nikt nie wie, co gdzie leży, które wersje są aktualne, kto odpowiada za jakość konkretnego zbioru i czy liczby z jednego folderu dają się w ogóle porównać z liczbami z drugiego.
Dlaczego tak się dzieje? Bo jezioro danych rozwiązuje tylko jeden problem - fizyczne i cyfrowe rozproszenie danych. Nie rozwiązuje problemu znaczenia danych, ich jakości, ich właścicielstwa ani kontekstu, w jakim powstały. A to właśnie te cztery rzeczy decydują o tym, czy dane da się potem wykorzystać czy to do raportowania, czy do zasilenia modelu AI.
Dlaczego same dane nie dają już przewagi. Jeszcze dziesięć lat temu sam fakt, że firma potrafiła zebrać i przechować swoje dane, był przewagą konkurencyjną. Dziś dane ma każdy. Różnica między firmami, które na danych zarabiają, a tymi, które tylko je magazynują, leży w zdolności do nadania danym znaczenia w kontekście konkretnej decyzji biznesowej.
Widać to szczególnie dobrze w momencie, w którym firma chce wdrożyć AI. Model językowy albo agent podpięty do jeziora danych, w którym nie wiadomo, co oznacza „status zlecenia = 4". Czy kolumna „klient_nazwa" odnosi się do płatnika czy odbiorcy, i które pliki z folderu „archiwum_2023" są finalną wersją? Agent nie rozwiąże tych niejasności, on je po prostu zwielokrotni, tyle że z pewnością siebie, która sprawia, że błędy są trudniejsze do wychwycenia niż w Excelu, który jest klejem między systemami.
Nowy paradygmat: data fluid, czyli dane ze znaczeniem w kontekście.
Dane są płynne, nabierają znaczenia w kontekście, które jest naczyniem. To kontekst nadaje kształt informacji. Ta sama liczba, to samo słowo, ta sama data - wlane w różne naczynia przyjmują różne formy i niosą różne znaczenia. Prostym przykładem, którego często używam będzie słowo „zamek". Bez kontekstu nie wiemy, czy chodzi o zamek w drzwiach, zamek w kurtce, zamek błyskawiczny, czy zamek w Malborku. To samo słowo, cztery zupełnie różne znaczenia i cztery zupełnie różne decyzje, które na jego podstawie można podjąć. „Zamek" wlany w zdanie o wakacjach w Malborku przyjmuje inny kształt niż „zamek" wlany w instrukcję serwisowania drzwi. Płyn jest ten sam ale naczynie inne.
Czym są silosy danych w organizacji i jak je rozróżniać?
Silosy danych to obszary, w których informacja zostaje zamknięta w pewnego rodzaju bańce, abstrakcyjnym i nierzeczywistym obszarze o swoim własnym kontekście.
Człowiek: To tutaj powstaje najwięcej silosów i tutaj są najtrudniejsze do rozbicia. Kluczowa wiedza trzymana w głowie jednej osoby, prywatne arkusze Excel, foldery na pulpicie, maile archiwizowane „na wszelki wypadek". Bardzo często nie wynika to ze złej woli a bardzo często wynika z lęku, że dzielenie się wiedzą czyni człowieka zbędnym, albo po prostu z braku nawyku i narzędzi, żeby tę wiedzę gdziekolwiek zapisać. Dopóki ten poziom nie zostanie zaadresowany, każdy kolejny system będzie obchodzony bocznymi drogami.
Oprogramowanie: Księgowość osobno, CRM osobno, WMS osobno a pomiędzy nimi Excel jako klej. Każdy z tych systemów jest sam w sobie sensowny, ale razem tworzą archipelag wysp, między którymi dane przenosi się ręcznie. Integracje techniczne rozwiązują ten poziom, ale tylko wtedy, gdy na poziomie wyżej ktoś ustalił, co właściwie znaczą „klient", „zlecenie" czy „status dostawy" - bo te same pojęcia często znaczą co innego w różnych systemach.
Dział: Trzeci poziom to silosowanie funkcjonalne. Sprzedaż nie wie, co dzieje się w operacjach. Operacje nie wiedzą, co obiecała sprzedaż. Księgowość dowiaduje się o wszystkim na końcu. To silos, który nie bierze się z braku technologii tylko z tego w jaki sposób zaprojektowane są procesy i jak rozliczani są ludzie. Jeśli każdy dział ma własne KPI i nikt nie odpowiada za proces end-to-end, dane będą się zatrzymywać na granicach działów niezależnie od tego, ile systemów wdrożysz.
Organizacja: Najwyższy poziom to silosowanie strategiczne - zarząd nie ma spójnego obrazu firmy, każdy dyrektor przynosi własne liczby na spotkanie, a prawda zależy od tego, kto generował raport, z którego systemu go pobrał a czasami od sytuacji „kto głośniej krzyczy". Tutaj rozwiązaniem nie jest system ani proces, tylko decyzja właścicielska o tym, że firma ma jedno źródło prawdy i jeden sposób mierzenia rzeczywistości.
Rozwiązanie problemów silosowania danych wymaga zrobienia kilku kroków wstecz oraz działań na kilku poziomach jednocześnie: technologicznym, organizacyjnym, kulturowym. Pominięcie któregokolwiek z nich sprawia, że wdrożenie nie przynosi efektu - znam to z praktyki u klientów.
Rafineria danych oraz ich wzbogacanie
Celowo odnoszę się tu do nomenklatury paliwowej. Popularne data is the new oil jest po prostu nieprawdziwe - a przynajmniej jest nieprawdziwe w skrócie, w jakim się je cytuje. Surowa ropa wypompowana z odwiertu nie napędza niczego. Nie wlejesz jej do silnika, nie uruchomisz nią turbiny, nie ogrzejesz domu. Zanim stanie się paliwem, musi przejść przez rafinerię - czyli serię procesów, które oddzielają frakcje, oczyszczają je z zanieczyszczeń i nadają im konkretne przeznaczenie. Benzyna, olej napędowy, nafta lotnicza, asfalt - wszystko to pochodzi z tej samej ropy, ale każde z tych paliw powstaje dopiero po rafinacji i każde służy do czegoś innego.
Z danymi jest identycznie. Dane pozyskane z jeziora to surowiec. Dopiero rafineria danych - czyli proces ich selekcji, oczyszczenia, opisania kontekstem i powiązania z innymi danymi - zamienia ten surowiec w paliwo, którym można napędzić decyzję biznesową, raport albo model AI. Systemy mogą być jednocześnie jeziorem danych, silosem danych i rafinerią. To my naszym modelem biznesowym, strategią, kulturą organizacji i strukturą decydujemy, czy mamy jezioro, silos, czy rafinerię.
Jak wygląda rafineria danych w praktyce
Krok 1: Selekcja. Nie wszystko, co leży w jeziorze, jest potrzebne do rozwiązania konkretnego problemu. Pierwszym krokiem jest decyzja, jaki produkt końcowy chcemy uzyskać - odpowiedź na konkretne pytanie biznesowe, dashboard, model predykcyjny, agent obsługujący zapytania klientów. Dopiero mając ten cel, możemy sensownie wybrać, które dane z jeziora są nam w ogóle potrzebne. To jest moment, w którym większość wdrożeń się potyka - firmy próbują „zrobić coś z danymi", zamiast zdefiniować, co konkretnie chcą uzyskać.
Krok 2: Oczyszczenie. Dane z rzeczywistej firmy są „brudne". Literówki w nazwach klientów, puste pola, duplikaty, niespójne formaty dat, statusy z różnych systemów, które nie mają wspólnej definicji. Oczyszczenie to żmudna, niewdzięczna praca, która w klasycznych projektach BI zajmuje 60-80% czasu. Tutaj modele językowe robią realną różnicę - potrafią normalizować nazwy, łączyć rekordy odnoszące się do tego samego podmiotu (nawet jeśli wpisano je na cztery różne sposoby) i wyłapywać anomalie, które człowiek przegapiłby w tabeli na dwieście tysięcy wierszy.
Krok 3: Nadanie kontekstu - wzbogacanie. To jest serce rafinerii i moment, w którym wracamy do koncepcji data fluid. Surowe dane wkładamy do naczynia, które nadaje im kształt. W praktyce oznacza to opisanie każdego istotnego pola: co oznacza, skąd pochodzi, kto za nie odpowiada, jak się ma do innych pól w innych systemach. Taki opis - nazywany w branży metadanymi, warstwą semantyczną albo słownikiem biznesowym - jest tym, co pozwala potem modelowi AI rozumieć, że „status = 3" w TMS znaczy co innego niż „status = 3" w CRM. Bez tej warstwy każdy model, nawet najnowszy, zgaduje.
Wzbogacanie to też dołączanie do własnych danych trzech warstw dodatkowego kontekstu.
Dane zewnętrzne - informacje, których firma sama nie generuje, ale które zmieniają sens jej własnych danych. Dane o kliencie z CRM oraz dane finansowe z KRS, plus wpisy z rejestru dłużników, plus dane o rynku z zewnętrznego raportu branżowego, plus notowania paliw czy kursy walut. Każda z tych informacji z osobna jest ogólnodostępna i mało wartościowa. Dopiero połączona z własnymi danymi zaczyna mówić coś konkretnego o sytuacji Twojego klienta, Twojego zlecenia, Twojej marży.
Dane z organizacji - czyli to, co się w firmie faktycznie dzieje, ale zwykle nie trafia do żadnego systemu. Notatki z rozmów handlowych, ustalenia ze spotkań, maile z klientami, komunikacja na Slacku czy Teamsie, skany CMR, zdjęcia z placu załadunku, nagrania z infolinii. To jest warstwa, którą przez lata ignorowano, bo nie dawała się łatwo wpisać w tabele. Modele językowe zmieniły tu reguły gry - potrafią wyciągnąć z maila informację, że klient zapowiedział spadek zamówień o 20%, i powiązać ją z danymi w CRM, zanim ta informacja zdąży „zniknąć" w skrzynce jednego handlowca. Więcej o tym, jak automatyzacja administracji wpływa na koszty i rentowność, znajdziesz w naszym artykule.
Dane o organizacji - metadane opisujące samą firmę. Kto za co odpowiada, jak wyglądają procesy, jakie są reguły biznesowe, jaka jest historia decyzji, dlaczego pewni klienci są obsługiwani inaczej niż inni. To wiedza, która dziś żyje w głowach ludzi - i która jest pierwszym silosem, o którym pisałem wcześniej. Opisanie jej i udostępnienie modelom AI to moment, w którym agent przestaje być generycznym chatbotem, a zaczyna być asystentem, który rozumie Twoją firmę, a nie dowolną firmę w ogóle.
Dopiero taki komplet - własne dane, zewnętrzne dane z organizacji, i dane o organizacji - pozwala podjąć decyzję, której nie podjąłbyś na podstawie żadnego z tych źródeł osobno. I dopiero na takim komplecie AI przestaje zgadywać.
Krok 4: Utrzymanie. Rafineria nie jest projektem jednorazowym. Dane się zmieniają, procesy się zmieniają, znaczenia pól się zmieniają. Jeśli raz opiszesz kontekst i zostawisz go, po roku będziesz mieć bagno danych z nakładką dokumentacji, która już nie odpowiada rzeczywistości - co jest gorsze niż brak dokumentacji w ogóle, bo daje fałszywe poczucie porządku. Dlatego częścią rafinerii musi być proces utrzymania - ktoś w organizacji odpowiada za to, że opis danych jest żywy.
Dlaczego bez rafinerii AI nie zadziała?
W każdej rozmowie o wdrożeniu AI w organizacji wraca to samo pytanie: „Ile to kosztuje i jak szybko zobaczymy efekty?" Odpowiedź, której nikt nie lubi słyszeć, brzmi: to zależy od tego, w jakim stanie są Wasze dane. Jeśli macie jezioro, ale bez rafinerii, to najpierw trzeba ją zbudować. I to nie dlatego, że AI jest kapryśne, tylko dlatego, że AI to silnik, a silnik potrzebuje paliwa, nie ropy. Najnowocześniejszy silnik spalinowy zadławi się surową ropą w taki sam sposób, w jaki dławił się silnik sprzed pięćdziesięciu lat.
Harari w dataizmie mówił, że wartość = przepływ danych. Ale przepływ to za mało, ponieważ przepływać musi informacja, czyli dane ze znaczeniem. AI w takim systemie staje się czymś więcej niż konsumentem danych. Staje się warstwą, która ten przepływ utrzymuje w ruchu - czyta maile, łączy systemy, normalizuje dane z różnych źródeł, uruchamia decyzję zanim człowiek zdąży zauważyć, że trzeba ją podjąć. Jezioro zbiera. Rafineria nadaje sens. AI napędza przepływ i zamyka go w decyzji. Każdy z tych elementów bez pozostałych jest bezużyteczny.
Zbuduj rafinerię danych z North East
Nie pozwól, by nieuporządkowane dane blokowały potencjał AI w Twojej firmie. Pomożemy Ci przekształcić surowiec w wartościowe paliwo decyzyjne.
Co to oznacza dla właściciela firmy
Jeśli prowadzisz firmę i zastanawiasz się, od czego zacząć wdrożenie AI, najuczciwsza odpowiedź brzmi: zacznij od rafinerii, nie od modelu. Ale zanim wybierzesz pierwszy proces do zrafinowania, musisz zrozumieć jedną rzecz - to nie jest projekt IT.
Rafineria danych oznacza, że wracasz do pytań, które być może zostały kiedyś zadane, ale na które nigdy nie padły precyzyjne odpowiedzi. Jak naprawdę działa Twoja firma? Kto jest właścicielem jakiego procesu? Gdzie kończy się odpowiedzialność jednego działu, a zaczyna drugiego? Co dokładnie sprzedajesz - produkt, usługę, czy raczej obietnicę, którą dopiero realizujesz w czasie? Jakie decyzje podejmujesz na podstawie danych, a jakie na podstawie intuicji, nawyku i „bo tak było zawsze"?
Pytania brzmią oczywiście. Odpowiedzi - prawie nigdy nie są oczywiste. I to właśnie w tych odpowiedziach kryją się silosy, o których pisałem wcześniej. Rafineria danych bez odpowiedzi na te pytania jest niemożliwa, bo nie opiszesz kontekstem czegoś, czego sam nie rozumiesz.
Właśnie dlatego tak kluczowy jest audyt procesów – by zrozumieć firmę od podszewki.
Dlatego w praktyce wdrożenie rafinerii prawie zawsze uruchamia zmianę głębszą niż techniczna. Zmienia się struktura organizacji - bo okazuje się, że niektóre działy robią to samo, a niektóre kluczowe obszary nie mają właściciela. Zmieniają się procesy - bo próba opisania ich krok po kroku ujawnia, ile z nich istnieje tylko w głowach trzech osób i ile jest zbudowanych wokół problemów, których już nie ma. Zmienia się model rozliczania ludzi - bo nie da się mieć jednego źródła prawdy, jeśli dwa działy są rozliczane z KPI, które się wzajemnie wykluczają. A czasami - i to widać u klientów, którzy zaszli najdalej - zmienia się model biznesowy. Kiedy zobaczysz swoje dane opisane kontekstem, często okazuje się, że realnie zarabiasz na czymś innym, niż myślałeś. Że Twój sklep internetowy kieruje przekaz do zupełnie innego klienta niż Twój prawdziwy klient. Że klient, którego uważałeś za strategicznego, od dwóch lat generuje stratę oraz że usługa, którą traktujesz jako dodatek, jest jedynym obszarem z rosnącą marżą. Koniec z tym „że" :).
Projekt „wdrożenia AI" nie może być projektem technologicznym, a powinien stać się projektem strategicznym z technologią w tle.
Rafineria danych to nie jest projekt, który kończy się wdrożeniem jednego narzędzia. To sposób, w jaki organizacja uczy się patrzeć na siebie i przetwarzać informacje. I dopiero wtedy technologia: agenci, modele, automatyzacje zaczynają wnosić realną wartość, a nie kolejny slajd do prezentacji zarządu.
Potrzebujesz pomocy w uporządkowaniu danych dla AI?
Skuteczne wdrożenie AI zaczyna się od solidnych fundamentów. Pomożemy Ci przejść od chaosu danych do inteligentnych decyzji biznesowych.
Nie wymyślamy koła na nowo
I tu warto powiedzieć coś, co jest wbrew narracji większości treści o AI w internecie: żadna z metod potrzebnych do zrobienia tego dobrze nie jest nowa. Lean, 5S, PDCA, Kaizen - są z nami od kilkudziesięciu lat i wyrosły w fabrykach Toyoty, długo przed tym, zanim ktokolwiek pomyślał o modelu językowym. OKR (Objectives and Key Results) porządkuje cele organizacji i łączy je z mierzalnymi rezultatami - Intel używa tego od lat 70., Google od końca lat 90. 4DX (The 4 Disciplines of Execution) to metoda egzekucji, która odpowiada na pytanie, jak w codziennej pracy utrzymać kierunek wyznaczony strategią. Mapowanie procesów, value stream mapping, SIPOC, RACI - cała ta warstwa narzędzi istnieje od dekad i dokładnie to, czego dziś potrzebujemy do opisania organizacji w sposób, w jaki model AI może ją zrozumieć.
Różnica nie polega na tym, że potrzebujemy nowych metod. Polega na tym, że te same metody stosujemy w nowym kontekście. Kiedyś mapa procesu była dokumentem wiszącym na ścianie hali produkcyjnej. Dziś jest kontekstem, który agent AI czyta, żeby wiedzieć, co zrobić z przychodzącym mailem od klienta. Kiedyś OKR był narzędziem do spinania celów zarządu z celami zespołów. Dziś jest też ramą, w której rafineria danych wie, które dane są istotne dla firmy w tym kwartale, a które mogą poczekać.
To jest dobra wiadomość. Oznacza, że masz już większość narzędzi. Jeśli Twoja firma kiedykolwiek robiła projekt Lean, wdrażała ISO, pracowała z 5S, rozpisywała cele w OKR albo mapowała procesy na potrzeby certyfikacji - masz fundament. Potrzebujesz tylko wykorzystać go w nowym celu.
Zła wiadomość jest taka, że jeśli Twoja firma nigdy się tym nie zajmowała, to AI nie jest skrótem naokoło. Wręcz przeciwnie - podejście „kupimy AI i ono nam poukłada firmę" jest najkosztowniejszym sposobem, żeby odkryć, że najpierw trzeba zrobić to, co dobre firmy produkcyjne robiły w latach 80.
Organizacje, które dziś walczą o przetrwanie i nie mają zbudowanych procesów, mają dane, które nie przynoszą żadnej wartości bądź nie potrafią tych danych przekuć we wnioski - to można wykorzystać. Wykorzystać czystą kartę by zacząć budować od zera organizację opartą o przepływy informacji z kontekstem. Coś, co jest największą słabością, może być również największą siłą przy transformacji organizacji.
Organizacje z dojrzałymi i zaawansowanymi procesami, ze skutecznym przepływem informacji, mimo że teoretycznie mają dziś łatwiej, najprawdopodobniej spotkają się z oporem, biurokracją procesową i innymi wadami zaawansowanych struktur. W takich organizacjach mimo ich aktualnej siły często będzie brakować zwinności. Coś, co jest największą siłą tych firm dziś może być również największą słabością tych organizacji.
Nie brałbym tego jako stałe założenie, że tak musi być i koniec kropka. Wszystko w tym momencie zależy od LUDZI. Sytuacje mogą być zupełnie odwrotne. Organizacje bez procesów nie wykorzystają szansy resetu a ogromne korporacje nauczą się zwinności. Życie potrafi zaskakiwać.
Trzy ruchy na start
Mając to w głowie, trzy konkretne ruchy, które możesz zrobić w tym miesiącu, niezależnie od budżetu:
Po pierwsze, wróć do metodyk, które Twoja firma zna albo kiedyś znała. Jeśli masz w szafie materiały z wdrożenia Lean sprzed pięciu lat, wyciągnij je. Jeśli robiliście kiedyś OKR i się rozeszły po kościach, to warto je wznowić. Jeśli nigdy niczego takiego nie robiliście, zacznij od najprostszego: mapa jednego procesu na jednej kartce A3, metodą SIPOC albo value stream mapping. To jest fundament, na którym wszystko inne się oprze.
Po drugie, wybierz jeden proces biznesowy, który chcesz usprawnić - nie całą firmę, jeden proces. Obsługa reklamacji, planowanie transportów, wystawianie faktur, cokolwiek bolesnego i powtarzalnego. Zmapuj, jakie dane są w nim używane, skąd pochodzą i co znaczą. Nie w teorii, tylko w praktyce. Najlepiej porozmawiaj z ludźmi, którzy ten proces wykonują, bo to oni znają prawdziwe znaczenia, których nie ma w żadnej dokumentacji. Pamiętaj o strategii szybkich zwycięstw, by budować zaufanie w organizacji.
Po trzecie, opisz ten fragment rzeczywistości. Stwórz słownik, który jest naczyniem dla danych z tego procesu. To jest Twoja pierwsza rafineria, w skali pilotażowej. Jeśli ten krok uda się zrobić dobrze, zauważysz coś ciekawego. To co stworzyłeś zacznie Ci się przydawać w innych procesach, bo klienci, zlecenia i statusy powtarzają się w całej firmie. I tak, krok po kroku, pilotaż staje się fundamentem. Rośnie kula śnieżna, którą trudno będzie zatrzymać.
Dopiero na takim fragmencie ma sens uruchamiać pierwszego agenta albo pierwszy model. I wtedy efekty przychodzą szybko, bo działasz w świadomie zawężonym obszarze, w którym dane już są paliwem, a nie ropą.
Gdy pierwszy pilotaż zadziała, wrócisz do pytań, które zadałem kilka akapitów wyżej i zaczniesz na nie odpowiadać świadomie, zamiast intuicyjnie. To jest moment, w którym firma przestaje być napędzana przez inercję i zaczyna być napędzana przez informację. I to jest też moment, w którym AI przestaje być modą, a staje się naturalnym elementem tego, jak Twoja firma funkcjonuje.
I na koniec jedna myśl, która jest dla mnie kluczowa przy każdym wdrożeniu: coś, co jest Twoją największą siłą, jest jednocześnie Twoją największą słabością. A największa słabość może być największą siłą. Wszystko zależy od ludzi. I od tego, czy potrafią zobaczyć swoją firmę na nowo.



