📰 Fehlalarm an High School in Baltimore County An einer High School im US‑County Baltimore ist ein Schüler von der Polizei festgenommen worden, nachdem ein KI‑gestütztes Überwachungssystem seine Chipstüte als Schusswaffe identifiziert hatte. Beamte rückten an, richteten ihre Waffen auf den Jugendlichen und legten ihm Handschellen an – erst danach stellte sich der Irrtum heraus. Der Vorfall nährt Zweifel an der Zuverlässigkeit solcher Systeme im Schulalltag.
🎥 Digital überwachte Schulen und reale Bedrohung Viele US‑Schulen setzen aus Sorge vor Waffengewalt zunehmend auf digitale Überwachung. In den öffentlichen Schulen von Baltimore County wird seit 2023 ein KI‑basiertes Waffenerkennungssystem eingesetzt, das Videobilder automatisch auswertet. Zugleich bleibt die Bedrohungslage real: Nach Angaben der Organisation Everytown gab es 2025 bereits über hundert Schusswaffenvorfälle an US‑Schulen mit zahlreichen Toten und Verletzten.
🚓 Ablauf des Einsatzes Der betroffene Schüler Taki Allen hatte Medienberichten zufolge vor der Kenwood High School Chips gegessen, als das System Alarm schlug. Offenbar hielt er die Tüte so, dass für die Kamera nur ein ausgestreckter Finger sichtbar war – die KI „erkannte“ darin eine Waffe. Polizisten zwangen den Teenager zu Boden, durchsuchten ihn und führten ihn in Handschellen ab; eine Waffe wurde nicht gefunden.
🏫 Reaktionen und Forderungen Die Schulleiterin sprach dem Schüler ihr Mitgefühl aus, betonte aber die Priorität der Sicherheit. Baltimores County‑Ratsmitglied Izzy Patoka forderte eine Überprüfung der Abläufe rund um das System.
⚖️ Einordnung der Risiken Der Fall zeigt, wie fehleranfällig automatisierte Erkennung in sicherheitskritischen Bereichen sein kann. Technologie kann unterstützen, darf aber polizeiliches Handeln und pädagogische Verantwortung nicht ersetzen.
🧩 Lehren und Anforderungen Nötig sind klare Eingriffsschwellen, verbindliche menschliche Gegenprüfung und Transparenz über Funktionsweise, Trainingsdaten und Fehlerraten. Schulen und Behörden müssen Nutzen und Risiken solcher Systeme nüchtern abwägen – mit dem Vorrang, Kinder zu schützen, ohne sie unverhältnismäßigen Gefahren oder Demütigungen durch Maschinenirrtümer auszusetzen.
🗨️ Kommentar der Redaktion Sicherheit an Schulen ist nicht verhandelbar, doch sie beginnt mit verantwortlichem menschlichem Urteil. Algorithmen dürfen warnen, aber nicht befehlen; wer eingreift, trägt die Verantwortung und muss prüfen, bevor er eskaliert. Bis Verfahren, Schwellen und Kontrollen klar definiert und transparent sind, gehört jeder KI‑Alarm strikt durch Menschen verifiziert. Ein System, das eine Chipstüte zur Waffe macht, braucht sofortige Nachschärfung und klare Haftungslinien. Der Schutz von Kindern hat Vorrang – auch vor technischer Bequemlichkeit.


