Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znacznie wolniejsze od wcześniejszych oczekiwań rynku. Dane pokazują, że z rozwiązań AI korzysta dziś wciąż niewiele przedsiębiorstw, a menedżerowie coraz częściej wskazują na bariery regulacyjne, koszty oraz brak powtarzalnych efektów biznesowych. W praktyce technologia jest testowana głównie w wybranych obszarach, a kluczowe decyzje nadal pozostają po stronie człowieka. Również w firmach, które wdrożyły AI, nierzadko towarzyszą temu rozczarowania.
– Sztuczna inteligencja właściwie nie ma dziś żadnych dokonań. Fascynacja trwa bez względu na to i powoli zaczyna się pojawiać świadomość wśród użytkowników i częściowo wśród inwestorów, że nadzieje pokładane w tej technologii były może nie nadmierne, ale na pewno przedwczesne. To jest bardzo droga technologia, w ogóle nieprzetestowana w praktyce, która zderza się z granicami wyznaczonymi niekoniecznie przez etykę, ale przez regulacje – ocenia prof. dr hab. Wojciech Czakon, kierownik Katedry Zarządzania Strategicznego Uniwersytetu Jagiellońskiego.
Według danych Eurostatu z 2025 roku 19,95 proc. unijnych firm zatrudniających ponad 10 osób używało technologii AI. Z kolei rok wcześniej wskaźnik ten wynosił 13,48 proc. Ściśle mówiąc, z rozwiązań tych korzystało 17,13 proc. małych przedsiębiorstw. W grupie średnich firm było to 30,36 proc. Natomiast w dużych organizacjach odsetek ten wyniósł 55,03 proc. Liczby te wskazują na dynamiczny wzrost zainteresowania sztuczną inteligencją. Jednakże skala jej realnego wykorzystania wciąż pozostaje ograniczona. Jest to widoczne zwłaszcza poza największymi organizacjami.
Najwyższy poziom wykorzystania AI odnotowano w sektorach opartych na wiedzy i danych. W sektorze informacji i komunikacji technologię stosowało 62 proc. firm, a w usługach profesjonalnych, naukowych i technicznych – ok. 40 proc. W pozostałych branżach rozwiązania oparte na AI pojawiają się znacznie rzadziej. Firmy wciąż ostrożnie podchodzą do tej technologii, oczekując bardziej przewidywalnych i powtarzalnych efektów.
– To, co ją napędza, to oczekiwanie inwestorów. Natomiast klienci nie widzą specjalnie wartości dodanej, raczej widzą wartość ujemną, pracownicy żyją w lęku, a menedżerowie znajdują się między młotem a kowadłem, więc czas jest burzliwy – podkreśla prof. Wojciech Czakon.
Sztuczna inteligencja w polskich firmach: Statystyki i główne bariery wdrożeniowe
Według danych Eurostatu w 2025 roku zaledwie 8,36 proc. polskich przedsiębiorstw wykorzystywało rozwiązania oparte na AI. Sytuację tę potwierdzają również dane GUS. Wskazują one, że 8,7 proc. firm deklarowało użycie tej technologii. Głównie chodziło o generowanie tekstu lub głosu, co dotyczyło 5,3 proc. podmiotów. Natomiast 2,1 proc. wykorzystywało analizę tekstu. Z kolei raport Polskiego Instytutu Ekonomicznego wyjaśnia przyczyny tego zjawiska. Okazuje się, że większość podmiotów nie chce wdrażać sztucznej inteligencji bez konieczności. Taką opinię wyraziło aż 77 proc. firm niekorzystających z AI. Jako główne bariery wymieniają one wysokie koszty wdrożeń. Ponadto istotnym problemem są braki kompetencyjne. Raport PIE zwraca uwagę na jeszcze jeden fakt. Często inicjatywy te mają charakter oddolny, a nie strategiczny. W rezultacie utrudnia to ich skuteczne skalowanie wewnątrz organizacji.
– Oczekiwania względem sztucznej inteligencji są gigantyczne, tak wielkie, że na końcu czeka nas wszystkich rozczarowanie, więc być może jest to dobry moment, żeby skalować nasze oczekiwania i zastanowić się, czy chodzi o wielokrotne, liczone w tysiącach procent pożytki, czy może chodzi o jednocyfrowe wzrosty – podkreśla ekspert.
W raporcie „The GenAI Divide. State of AI in Business 2025”, przygotowanym w ramach projektu NANDA (Networked AI Agents in Decentralized Architecture) na uczelni MIT, wielomiliardowe inwestycje firm w GenAI nie przynoszą oczekiwanych rezultatów. Tylko 5 proc. pilotaży integrujących AI generuje milionową wartość, podczas gdy zdecydowana większość pozostaje bez mierzalnego wpływu na wynik finansowy. Powszechnie stosowane narzędzia, jak ChatGPT czy Copilot, zwiększają przede wszystkim indywidualną produktywność, a nie wynik finansowy. Narzędzia korporacyjne także nie przynoszą rezultatów, często bywając odrzucane już na etapie pilotażu. Takie wnioski przyniosła analiza ponad 300 projektów AI, 52 wywiadów i ponad 150 ankiet wśród kadry zarządzającej.
– Menedżerowie szukają w AI zwiększenia produktywności, a mówiąc najprostszym językiem, chodzi o obcięcie kosztów. Jeżeli jakaś technologia daje obietnicę zejścia z 12, 13, 15, a nawet 20 etatów w zamian za funkcjonowanie agenta opartego na sztucznej inteligencji, który kosztuje 150–120 zł miesięcznie, to to jest wielka pokusa. Pytanie, czy mamy do czynienia z ekwiwalentem wartości – mówi prof. Wojciech Czakon. – Menedżerowie eksperymentują, robią to dobrze i szybko, ale jeszcze ktoś musi nadzorować całość. Dzisiejszy wynik nadzoru nad całością jest negatywny i wynosi 9:1, gdzie 1 to są efekty pozytywne, a 9 niespełnione nadzieje.
Jak firmy w UE korzystają z AI? Dominacja narzędzi niskiego ryzyka
W 2025 roku 11,75 proc. przedsiębiorstw w Unii Europejskiej wykorzystywało technologie analizy języka pisanego, 9,55 proc. – narzędzia generujące obrazy, wideo lub dźwięk, a 8,76 proc. – systemy generujące tekst, mowę lub kod programistyczny. Koncentracja na takich zastosowaniach pokazuje, że przedsiębiorstwa wybierają obszary o relatywnie niskim ryzyku operacyjnym i regulacyjnym, pozostawiając bardziej wrażliwe decyzje po stronie człowieka.
– Jeżeli rozbierzemy na części pierwsze to, czym sztuczna inteligencja się wydaje, to mamy na pewno automatyzację procesów i uczenie maszynowe. Tutaj w procesach produkcyjnych jest zaawansowane stadium. Mamy też modele językowe: ChatGPT, Gemini, Copilot i wiele innych, i niestety trzeba powiedzieć, że to są produkty mało wiarygodne – wskazuje kierownik Katedry Zarządzania Strategicznego UJ. – Gdyby ocenić je okiem akademika, to są po prostu słabe, a gdyby ocenić je okiem przeciętnego odbiorcy, to mogą być wystarczające. Ale nie jestem pewien, czy ktokolwiek z nas chciałby się znaleźć w środku zawieruchy na dużym lotnisku, w którym to sztuczna inteligencja, a nie człowiek, kieruje ruchem zastępczym i decyduje na przykład, czy polecimy do Warszawy przez Oslo czy Stambuł.
Jak podkreśla, problem braku wiarygodności hamuje jeszcze zastosowanie AI przykładowo w usuwaniu szkód ubezpieczeniowych, w procedurach medycznych, kwalifikowaniu pracowników do awansu czy zatwierdzaniu sprawozdań finansowych.
– Do tego chcemy człowieka. To jest ciekawe, bo człowiek przecież nie daje stuprocentowej gwarancji, ale technologia daje jeszcze mniejszą gwarancję i na dodatek za nią nikt nie jest odpowiedzialny – dodaje ekspert. – Odpowiedzialność w przypadku technologii jest wielkim znakiem zapytania. Póki nie znajdziemy jako społeczeństwo odpowiedzi na to pytanie, kto jest odpowiedzialny za jej efekty i błędy, póty wdrożenia będą szły wolniej, niż byśmy chcieli.
Problem odpowiedzialności za decyzje podejmowane przez algorytmy jest jednym z głównych wątków europejskiej debaty regulacyjnej wokół sztucznej inteligencji i realnie spowalnia decyzje wdrożeniowe w firmach. Kwestia ta jest jednym z kluczowych elementów unijnego AI Act, który wprowadza podział systemów sztucznej inteligencji według poziomu ryzyka oraz określa obowiązki po stronie dostawców i użytkowników technologii. W przypadku systemów wysokiego ryzyka regulacje przewidują m.in. wymogi nadzoru człowieka, dokumentowania decyzji algorytmów oraz możliwość sankcji finansowych, co w praktyce skłania wiele firm do ostrożnego, etapowego wdrażania AI.
źrodło: Agencja Informacyjna Newseria