- Głośne porażki firm, które odsłaniają realne ryzyka
- Halucynacje AI, które kosztują reputację i pieniądze
- Prawa autorskie i uprzedzenia zapisane w danych
- Udane projekty
- Jak nie przepalić budżetu
Sztuczna inteligencja od dwóch lat jest najgłośniejszym hasłem w świecie technologii i biznesu. W prezentacjach sprzedawców AI wygląda jak magiczny przycisk „turbo efektywność”. W mediach społecznościowych – jak kosmiczna rewolucja, która zmieni każdą branżę. Rzeczywistość jest jednak bardziej złożona. Jak pokazuje raport MIT NANDA „State of AI in Business 2025”, aż 95 proc. projektów AI w dużych firmach nie osiąga żadnych mierzalnych rezultatów. Wiele kosztownych wdrożeń zatrzymuje się na etapie pilotażu.
Problemem nie jest sama technologia. Modele AI rozwijają się w szybkim tempie, ale organizacje często nie są gotowe, aby wykorzystać ich potencjał. Brakuje strategii, kompetencji użytkowników, integracji z procesami biznesowymi, a czasem nawet podstawowych zasad bezpieczeństwa. Jednocześnie pracownicy masowo korzystają z prywatnych kont chatów, bo pomagają im szybciej i skuteczniej niż formalnie wdrożone firmowe narzędzia. To mówi o stanie implementacji AI więcej niż najbardziej rozbudowane raporty.
Głośne porażki firm, które odsłaniają realne ryzyka
AI potrafi zachwycać, ale też spektakularnie zawodzić. Warto przyjrzeć się przypadkom, które w ostatnim czasie elektryzowały świat biznesu, bo każdy z nich pokazuje inne źródło ryzyka.
- Pracownicy Samsunga, chcąc usprawnić pracę, przekazali do publicznego ChataGPT fragmenty poufnego kodu źródłowego oraz notatki z tajnych spotkań wewnętrznych. Nie mieli świadomości, że dane te trafiają na zewnętrzne serwery i mogą być przetwarzane przez podmiot trzeci. Sprawa wywołała globalny alarm. Firma natychmiast wprowadziła zakaz korzystania z publicznych chatbotów i rozpoczęła prace nad własnym narzędziem AI. Ten przypadek stał się punktem zwrotnym w rozmowach o bezpieczeństwie i zarządzaniu sztuczną inteligencją.
- Jeszcze bardziej dotkliwe były wpadki Deloitte, które w krótkim czasie uderzyły w wiarygodność całej firmy doradczej. Najpierw w Australii w raporcie przygotowanym dla Departamentu Zatrudnienia wykryto fikcyjne źródła, błędnie przypisane publikacje i nawet zmyślony cytat z orzeczenia Sądu Federalnego. Dokument poprawiono, a Deloitte zwrócił ostatnią transzę wynagrodzenia. Wkrótce potem podobne błędy, w tym nieistniejące cytowania i artykuły przypisane realnym autorom, ujawniono w raporcie zamówionym przez jedną z kanadyjskich prowincji, za ok. 1,6 mln dol. kanadyjskich. Choć firma utrzymuje, że to „pojedyncze pomyłki”, a raport ma zostać skorygowany, reputacyjne konsekwencje są poważne.
Obie sprawy podważyły to, co stanowi fundament działalności doradczej, a szczególnie dla firm „Wielkiej 4”: zaufanie, że analizy są ponadprzeciętnie rzetelne, weryfikowalne i bezbłędne. Dla Deloitte to jeden z najbardziej dotkliwych kryzysów wizerunkowych ostatnich lat.
Halucynacje AI, które kosztują reputację i pieniądze
W świecie prawniczym głośno było o dwóch amerykańskich prawnikach, którzy w piśmie procesowym powołali się na sześć nieistniejących spraw sądowych. ChatGPT wygenerował precedensy, które brzmiały wiarygodnie, miały sygnatury i cytaty, ale nigdy nie zostały wydane. Sąd ukarał prawników grzywną 5 tys. dol. Ten incydent stanowi ostrzeżenie: AI potrafi halucynować, a jej treści nie mogą być traktowane jako wiarygodne źródło prawa.
AI potrafi również narazić firmę na realne straty finansowe. Podczas pierwszej prezentacji Google Bard podał błędną odpowiedź o osiągnięciach teleskopu Jamesa Webba. Z pozoru to drobiazg, ale reakcja rynku była natychmiastowa – akcje Alphabet spadły o 9 proc., co oznaczało ok. 100 mld dol. utraconej kapitalizacji. Błąd stał się symbolem pośpiechu: firma budująca swój model biznesowy na technologicznej dominacji pokazała produkt przed pełnym przetestowaniem, co może oznaczać, że traci przewagę w wyścigu z Microsoftem i OpenAI.
Podobne konsekwencje dotknęły media. CNET, jeden z największych i najstarszych amerykańskich serwisów technologicznych, który od lat uchodzi za wiarygodne źródło recenzji, porad i analiz rynkowych, wykorzystał AI do przygotowywania artykułów finansowych i inwestycyjnych. Czytelnicy szybko wychwycili liczne błędy merytoryczne, nieścisłości oraz fragmenty przypominające plagiaty. Projekt został wstrzymany, a redakcja musiała poprawić opublikowane treści i publicznie tłumaczyć zasady korzystania z AI.
Prawa autorskie i uprzedzenia zapisane w danych
Najkosztowniejsze okazują się jednak pozwy dotyczące praw autorskich. Getty Images pozwało Stability AI za trenowanie modeli na 12 mln zdjęć bez zgody, a grupa znanych autorów, w tym George R.R. Martin, wytoczyła sprawę OpenAI, zarzucając modelom generowanie streszczeń zbyt podobnych do oryginalnych książek.
To dopiero początek porządkowania rynku, ale już pojawił się precedens, który wstrząsnął branżą: Anthropic, twórca modelu Claude, zawarł ugodę wartą 1,5 mld dol. z autorami pozywającymi firmę za wykorzystanie ich utworów w danych treningowych. Sprawa dotyczyła setek tysięcy książek pobranych z tzw. shadow libraries, a ugoda obejmuje zarówno odszkodowania, jak i zobowiązanie firmy do usunięcia niedozwolonych danych. To pierwsza na taką skalę sprawa, która pokazała, że masowe wykorzystanie cudzych treści do trenowania modeli AI nie jest szarą strefą, lecz realnym ryzykiem finansowym i prawnym.
Równie pouczający pozostaje przykład Amazona, który testował wewnętrzny system rekrutacyjny oparty na AI, trenowany na historycznych danych (sprzed 10 lat) dotyczących przyjęć do pracy. Ponieważ zdecydowana większość historycznych CV pochodziła od mężczyzn, co odzwierciedlało strukturę zatrudnienia w branży technologicznej, model nauczył się, że „dobry kandydat” to mężczyzna. Zespół Amazona szybko anulował projekt, ale przykład ten stał się symbolem ryzyka opartego na danych obarczonych uprzedzeniami. AI nie tworzy dyskryminacji z niczego, lecz powiela i wzmacnia wzorce ukryte w danych, na których bazuje.
Udane projekty
Pejzaż wdrożeń AI to jednak nie tylko błędy i kryzysy. Są sektory, w których technologia przynosi spektakularne korzyści. Najlepiej widać to w branży IT.
▶ Badania GitHub wykazały, że programiści korzystający z Copilota wykonują zadania średnio o 55 proc. szybciej. Oprogramowanie nie zastępuje ich wiedzy, ale odciąża ich od żmudnych, powtarzalnych czynności, a więc skraca czas zamykania projektów. W tym przypadku produkt został dokładnie dopasowany do rzeczywistej pracy użytkowników, co jest kluczem do sukcesu.
▶ Bardzo dobre efekty widzimy także w sektorze finansowym. PKO BP stworzyło jeden z największych w Europie ekosystemów botów głosowych, który przejął obsługę mln prostych spraw. Klienci korzystają, pracownicy są odciążeni, a organizacja oszczędza czas i zasoby.
▶ W handlu detalicznym i e-commerce AI zaczęła przynosić szybkie, policzalne efekty, bo została zastosowana do bardzo konkretnych problemów operacyjnych. Duńskie Miinto wykorzystało algorytmy do automatycznego wykrywania duplikatów ofert w ogromnym katalogu marketplace’u, co przełożyło się na 40-proc. wzrost efektywności operacyjnej i lepsze konwersje, uporządkowany katalog ułatwia klientom znalezienie właściwego produktu.
▶ Swarovski wprowadził generatywne narzędzia do tworzenia spersonalizowanych treści marketingowych, dzięki czemu kampanie mailowe osiągają wyższe wskaźniki otwarć i kliknięć.
▶ Carrefour z kolei zautomatyzował produkcję setek reklam dopasowanych do zachowań i preferencji klientów, co pozwoliło skalować działania marketingowe bez zwiększania zasobów.
Uwaga! Wspólny mianownik tych projektów jest prosty – technologia zadziałała dlatego, że została ściśle osadzona w procesach i odpowiadała na konkretną, mierzalną potrzebę biznesową.
Jak nie przepalić budżetu
Pierwsze lata masowej adopcji AI przyniosły jasne wnioski.
- Po pierwsze, AI nie może być wdrażana „dla zasady”. Musi rozwiązywać konkretny, dobrze opisany problem biznesowy. W przeciwnym razie bardzo szybko trafia na półkę narzędzi, których nikt nie używa albo co gorsza – generuje ryzyka, których firma się nie przewidziała.
- Po drugie, nie można skutecznie wdrażać AI bez przygotowania ludzi. Modele potrafią automatyzować zadania, ale to ludzie weryfikują ich działanie, interpretują wyniki i decydują o ostatecznym zastosowaniu. Tam, gdzie pracownicy nie wiedzą, jak z AI pracować, powstają problemy opisane wyżej.
- Po trzecie, bezpieczeństwo danych i kwestie prawne nie mogą być odkładane na później. Prawa autorskie, poufność danych, audyt modeli i kontrola halucynacji to filary odpowiedzialnego wdrożenia. Przedsiębiorstwa, które ignorują te elementy, ryzykują nie tylko reputacją.
Uwaga! Najlepsze wdrożenia powstają tam, gdzie AI jest partnerem człowieka, a nie jego substytutem – wspiera ekspertów, ale nie zastępuje ich osądu.
Co nas czeka
AI pozostanie w biznesie na stałe. Nie jest chwilową modą, lecz nową warstwą infrastruktury przedsiębiorstw. Dziś firmy są na etapie przejściowym: jedne już budują przewagę konkurencyjną, inne wciąż testują narzędzia bez efektu. Okno możliwości jest wciąż otwarte, ale nie na długo. W ciągu najbliższych kilkunastu miesięcy rynek dostawców ustabilizuje się, a koszty zmiany technologii będą coraz wyższe.
Wygrywać będą ci, którzy połączą rozsądną strategię, edukację zespołów i bezpieczeństwo danych z rozsądnymi pilotażami. Pozostali odkryją, że technologia, która miała przyspieszyć rozwój, stała się jedynie kosztowną lekcją spóźnionego wdrożenia. ©℗