- AI pomyliło paczkę chipsów z pistoletem – jak doszło do błędu w szkole w Baltimore?
- Dlaczego ta pomyłka AI to nie „śmieszny wypadek”, tylko realne zagrożenie?
- Kiedy sztuczna inteligencja zawodzi – inne kuriozalne błędy AI, które miały poważne skutki
- Gdzie naprawdę leży problem z AI w systemach bezpieczeństwa?
- Nowe informacje [12:55] – audyt systemu AI Omnilert po incydencie w Baltimore
To nie scenariusz filmu akcji - to realne wydarzenie, które rodzi pytania o granice AI. I pokazuje, że błąd maszyny może stać się dramatem człowieka.
AI pomyliło paczkę chipsów z pistoletem – jak doszło do błędu w szkole w Baltimore?
W szkole Kenwood High School w hrabstwie Baltimore County (Maryland) nastolatek Taki Allen po treningu futbolowym zjadł paczkę chipsów marki Doritos Cool Ranch i schował pustą torebkę do kieszeni. Po około 20 minutach system AI Omnilert – mający wykrywać broń – wygenerował alert: możliwa broń palna. Na miejsce przyjechało osiem radiowozów, funkcjonariusze z bronią kazali mu paść na ziemię – a po przeszukaniu nie znaleziono nic oprócz… paczki chipsów.
W liście do rodziców dyrektorka szkoły przyznała: „zespół ds. bezpieczeństwa szybko anulował pierwotny alert po potwierdzeniu, że nie ma broni”. Policja hrabstwa tłumaczyła:
Zareagowaliśmy właściwie i proporcjonalnie, opierając się na informacji, którą wtedy otrzymaliśmy.
Jednak dla ucznia i jego rodziny było to doświadczenie traumatyczne. Allen przyznał, że od tego czasu boi się wychodzić po treningach, bo – jak mówi – „nie jest wystarczająco bezpiecznie, nawet jeśli po prostu jesz chipsy lub pijesz napój”.
Dlaczego ta pomyłka AI to nie „śmieszny wypadek”, tylko realne zagrożenie?
Choć na pierwszy rzut oka całe wydarzenie może wyglądać jak kuriozalna, nieco zabawna pomyłka, to tak naprawdę pokazuje ona głębszy problem. Uczeń został bowiem skuty kajdankami – choć nie popełnił żadnego przestępstwa ani nie miał broni. Technologia przeznaczona do ochrony środowiska szkolnego – system wykrywania broni – zawiodła w najbardziej newralgicznym momencie. Rodzice, uczniowie, lokalna społeczność zaczynają pytać: czy ufać systemom AI, które mogą generować realne zagrożenie zamiast jego wykrywać?
Firma Omnilert tłumaczyła: system wykrył to, co wyglądało jak broń; przesłał obraz do weryfikacji, a potem informację do szkoły – wszystko w kilku sekundach. Ale jak mówi Allen: „Nie sądzę, żeby jakakolwiek paczka chipsów powinna być uważana za pistolet”.
Kiedy sztuczna inteligencja zawodzi – inne kuriozalne błędy AI, które miały poważne skutki
To nie pierwszy przypadek, gdy sztuczna inteligencja popełniła błąd w rozpoznawaniu zagrożenia. Te historie pokazują, że gdy AI wkracza w sferę bezpieczeństwa, błędy mogą mieć realne ludzkie koszty – a nie są one jedynie techniczną ciekawostką.
Fałszywe aresztowania w USA – jak AI myli ludzi z przestępcami
W 2020 r. Robert Williams został aresztowany na podstawie algorytmu rozpoznawania twarzy – choć nijak nie odpowiadał podejrzanemu, a był w zupełnie innym miejscu.
To pierwszy znany przypadek fałszywego użycia takiej technologii przez policję w USA – spowodował później ugodę i nowe wytyczne dla policji w Detroit.
Ciężarna kobieta zatrzymana przez AI – kiedy algorytm zastępuje zdrowy rozsądek
W 2023 r. Porcha Woodruff – będąca w ósmym miesiącu ciąży – została zatrzymana za kradzież pojazdu na podstawie technologii rozpoznawania twarzy, mimo że nie miała związku ze sprawą. Miasto Detroit w efekcie zmieniło zasady – nie można aresztować osoby wyłącznie na podstawie algorytmu.
Gdzie naprawdę leży problem z AI w systemach bezpieczeństwa?
AI uczy się na błędach – ale w bezpieczeństwie może to kosztować życie
Algorytmy uczone są na zbiorach danych, które nie zawsze odzwierciedlają realne warunki – m.in. inne kąty widzenia, oświetlenie, gesty, otoczenie. W konsekwencji mogą pojawić się fałszywe alarmy.
Automatyzacja z zaufaniem zamiast kontroli
System wykrył coś, co wyglądało „jak broń” – przesłał alert. W teorii weryfikacja ludzka miała zatrzymać reakcję – w praktyce reakcja była błyskawiczna, a człowiek miał ograniczony czas na sprawdzenie.
Brak procedur i regulacji AI – kto ponosi odpowiedzialność za błędy maszyn?
W wielu przypadkach technologia wkracza tam, gdzie brakuje przejrzystości: kiedy dokładnie może działać, jakie są limity, kto odpowiada za procedury.
Automation bias, czyli ślepa wiara w technologię – jak instytucje tracą czujność
Gdy instytucje zaczynają ufać technologii bez refleksji, pojawia się niebezpieczeństwo – że wynik algorytmu zostanie potraktowany jako fakt, nie hipoteza i następnie - utrwalony.
Nowe informacje [12:55] – audyt systemu AI Omnilert po incydencie w Baltimore
W najświeższych informacjach hrabstwo Baltimore zleciło niezależny audyt systemu Omnilert, który ma ustalić, jak doszło do błędnej identyfikacji paczki chipsów jako broni. Wyniki mają być znane do końca roku.
Dlaczego każdy powinien znać granice AI – to może zdarzyć się także w Polsce
Nie jest to tylko problem USA. Technologia AI wkracza także do Europy i Polski – w szkołach, obiektach publicznych, monitoringu. Jeśli systemy zaczynają decydować o bezpieczeństwie, mamy prawo pytać: Na ile możemy im ufać?
Dla rodziców, nauczycieli, uczniów – chodzi o poczucie bezpieczeństwa. Dla firm i instytucji – o odpowiedzialność. A dla obywateli – o prawa i ochronę przed błędem maszyny.