Um das Problem der niedrigen Effizienz aufgrund der unterschiedlichen Formen, ungleichmäßigen Größen und unscharfen Kanten leitfähiger Partikel im manuellen visuellen Prüfverfahren für Flex-on-Glass (FOG) zu lösen, wird der verbesserte leichte Objekterkennungsalgorithmus FSL-YOLO11n auf Basis von YOLO11n vorgeschlagen. Dieser Algorithmus optimiert die Leistung durch folgende Verbesserungen: Einführung des Feature Complementary Mapping (FCM)-Moduls im Backbone-Netzwerk zur Reduzierung von Parameterredundanzen und Verstärkung der Extraktion kleiner Zielmerkmale durch Merkmalsaufteilung, Richtungsänderung, komplementäre Abbildung und Fusion; Einführung eines Ansatzes für die Randverarbeitung medizinischer Bilder und einer dynamischen Strategie zum Aufbau eines dynamischen, skalierungsübergreifenden Merkmalsaggregationsnetzwerks, mit einer neuen pyramidenartigen Struktur für die dynamische Aggregation kleiner Ziele (Small Target Dynamic Aggregation FPN, STDA-FPN). Die Module Selektive Randaggregation (SBA), Dynamisches Upsampling (DySample) und DIGC (Dynamic Inception GLU ConvFormer) verbessern gemeinsam die Fähigkeit zur Mehrskaligen Merkmalsaggregation. Ein leichter gemeinsamer Faltungsqualitätsdetektionskopf (Lightweight Shared Convolutional Quality Detection, LSCQD) wurde entwickelt, um den Rechenressourcenverbrauch des Modells zu reduzieren und es leichter zu machen. Die experimentelle Validierung anhand eines Datensatzes leitfähiger Partikel zeigt: Im Vergleich zu YOLO11n wurde die Parameteranzahl von FSL-YOLO11n um 0,8 Mio. reduziert, während Genauigkeit, Rückruf, mAP@0.5 und mAP@0.5:0.95 um 2,6 %, 3 %, 3,1 % bzw. 2,7 % verbessert wurden, und der Algorithmus läuft stabil auf Edge-Geräten. Der Algorithmus erreicht nicht nur Gewichtsreduzierung und Leistungsverbesserung im experimentellen Umfeld, sondern bietet auch eine effiziente und praktikable Lösung für die industrielle Inspektion in der Praxis.