Incident scandalos la o școală din Baltimore: un adolescent confundat cu un infractor din cauza inteligenței artificiale
Un adolescent din Baltimore a trăit o experiență de coșmar după ce un sistem de inteligență artificială a identificat greșit un ambalaj de snacks ca fiind o armă. Această situație a stârnit discuții ample despre eficiența și riscurile asociate cu tehnologiile de supraveghere care folosesc AI în școli.
Ce s-a întâmplat de fapt?
Taki Allen, un student de 16 ani, a fost oprit de către polițiști înarmați în apropierea școlii sale, după ce a încheiat un antrenament de fotbal. Incidentul a avut loc după ce adolescentul a consumat o pungă de chipsuri Doritos și a decis să păstreze ambalajul gol în buzunar. La scurt timp, aproximativ douăzeci de minute mai târziu, zona în care se afla a fost invadată de opt mașini de poliție.
Taki a povestit pentru WMAR-2 News despre momentul tensionat: „Poliția a venit, cam opt autospeciale, și apoi toți au ieșit cu armele îndreptate spre mine, spunându-mi să mă întind la pământ. Mi-au spus să mă pun în genunchi, m-au arestat și m-au pus în cătușe.” Impactul acestei experiențe asupra tânărului a fost profund, lăsându-l afectat de trauma trăită.
Departamentul de Poliție al Județului Baltimore a confirmat intervenția, subliniind că incidentul s-a încheiat în siguranță, după ce autoritățile au stabilit că nu exista nicio amenințare reală.
Cum a funcționat sistemul AI
Alertarea poliției a fost generată de Omnilert, o companie care utilizează tehnologia inteligenței artificiale pentru detectarea armelor. Aceasta a interpretat forma ambalajului de snacksuri ca fiind o armă de foc. După generarea inițială a alertei, o echipă umană de verificare din cadrul companiei a analizat imaginea și a transmis informațiile echipei de siguranță a școlii.
Cele trei etape principale ale funcționării sistemului de AI sunt următoarele:
- Detectarea unui obiect suspect: AI-ul a perceput ambalajul ca fiind o amenințare.
- Confirmarea prin verificare umană: Specialiștii de la Omnilert au confirmat alerta inițială.
- Alertarea autorităților: În ciuda anulării ulterioare a alertei, directorul școlii a considerat că este necesar să informeze poliția despre incident.
Kate Smith, directoarea școlii, a declarat: „Am contactat ofițerul nostru de resurse școlare (SRO) și i-am raportat situația. Acesta a contactat secția locală pentru sprijin suplimentar.” Aceasta a mai adăugat: „Ofițerii de poliție au răspuns rapid și, după o percheziție, au confirmat că studentul nu deținea nicio armă.”
Omnilert a declarat că procesul a funcționat conform intențiilor: „Deși obiectul a fost confirmat ulterior ca nefiind o armă de foc, metoda noastră a funcționat bine prin prioritizarea siguranței și a conștientizării prin verificare rapidă.” Compania a precizat că tehnologia lor este în utilizare în numeroase instituții de învățământ din Statele Unite, dar a recunoscut, de asemenea, complexitatea detectării armelor în lumea reală.
Reacții și controverse
Acest incident a generat reacții mixte din partea comunității și a autorităților. Omnilert și-a exprimat regretul pentru ceea ce s-a întâmplat: „Ne pare rău că acest incident a avut loc și dorim să transmitem îngrijorarea noastră studentului și comunității afectate.”
Consilierul local Izzy Pakota a cerut o reevaluare a sistemului, afirmând: „Fac apel la Școlile Publice din Baltimore County să revizuiască procedurile lor privind tehnologia de detectare a armelor bazată pe inteligență artificială.” Această apel a fost susținut și de organizații care critică riscurile asociate cu tehnologiile de supraveghere.
Pentru Taki Allen, această situație l-a marcat profund. El a declarat că preferă acum să rămână în interior după antrenamente, subliniind: „Nu cred că o pungă de chipsuri ar trebui confundată cu o armă.” Experiența sa a fost atât de traumatizantă încât familia lui analizează opțiunile legale pentru a răspunde la ceea ce consideră că a fost o abuzare a puterii.
Ce spun experții despre inteligența artificială?
Incidentul a readus pe tapet discuțiile despre eficiența sistemelor de detectare a armelor cu ajutorul inteligenței artificiale. Anul trecut, compania Evolv Technology a fost sancționată pentru declarații false cu privire la capacitatea tehnologiei sale de a detecta arme, deși aceasta este utilizată în mii de școli, spitale și stadioane din întreaga țară.
Specialiștii au subliniat câteva probleme majore legate de aceste sisteme:
- Rata ridicată de eroare: AI-ul poate greși frecvent în identificarea obiectelor, ceea ce poate duce la situații neplăcute.
- Limitările verificării umane: Deși intervenția umană ar trebui să corecteze erorile, aceasta nu reușește întotdeauna să fie eficientă la timp.
- Dilema echilibrului: Școlile trebuie să reconcileze siguranța cu respectarea drepturilor individuale ale elevilor.
Această situație a dus la o dezbatere aprinsă între susținătorii tehnologiei și cei care solicită reglementări mai stricte pentru utilizarea sistemelor AI.
Ce urmează după acest incident?
În urma incidentului, școala a anunțat că va revizui procedurile de siguranță. Poliția a declarat că a acționat corect în baza informațiilor primite de la compania de inteligență artificială. Totuși, absența unor standarde clare și a unor protocoale bine definite pentru sistemele AI în spațiile publice continuă să fie o problemă semnificativă.
Experții avertizează că astfel de incidente ar putea deveni tot mai frecvente, pe măsură ce tehnologia avansează. Soluțiile necesare ar putea include nu doar îmbunătățirea algoritmilor de detecție, dar și o mai bună pregătire a personalului care gestionează aceste sisteme.
Deocamdată, Taki Allen rămâne precaut și îngrijorat de posibilitatea ca o altă confuzie asemănătoare să se întâmple din nou. Acest incident nu este doar un exemplu de greșeală tehnologică, ci și un semn clar al problemelor mai ample legate de utilizarea inteligenței artificiale în situații critice. Comunicația transparentă între autorități, școli și comunitate devine esențială pentru a asigura siguranța elevilor și a evita astfel de neplăceri în viitor.

