Um das Problem der geringen Genauigkeit aktueller Verkehrszeichenerkennungsmethoden bei kleinen Objekten, unscharfen Zielen und komplexen Umgebungen zu lösen, schlägt dieser Artikel ein verbessertes Verkehrszeichenerkennungsmodell YOLOv8-NTS vor, um die Erkennungsleistung des Modells in komplexen Verkehrsumgebungen zu verbessern. Das Modell basiert auf YOLOv8 und wurde in drei Bereichen verbessert: Erstens wurde im Backbone-Netzwerk ein SlimHAT-Modul (leichter gemischter Aufmerksamkeits-Transformer) entwickelt, um die Modellierungsfähigkeit globaler Pixelinformationen zu stärken und die Genauigkeit der Merkmalrepräsentation zu erhöhen; zweitens wurde das auf WTConv basierende WT-C2fBlock-Modul als Ersatz für das ursprüngliche C2f-Modul entworfen, wodurch die Anzahl der Modellparameter um 12,2 % reduziert und gleichzeitig die Erkennungsgenauigkeit beibehalten wird; schließlich wurde ein neuer Detektionskopf RFAhead entwickelt, der räumliche Aufmerksamkeit und Faltungsoperationen kombiniert, um die Merkmalsextraktions- und Fusionsprozesse zu optimieren und die Ausdrucksfähigkeit und Robustheit des Modells gegenüber Zielen weiter zu verbessern. Experimente auf dem TT100K-Verkehrszeichendatensatz zeigen, dass das verbesserte YOLOv8-NTS-Modell im Vergleich zum Basismodell YOLOv8 die Präzision, den Rückruf, mAP50 und mAP50~90 um 6,5 %, 5,0 %, 7,3 % bzw. 5,3 % verbessert und damit einen signifikanten Leistungsgewinn aufweist. Das vorgeschlagene YOLOv8-NTS-Modell kann die Erkennungsgenauigkeit von Verkehrszeichen und die Generalisierungsfähigkeit bei gleichzeitig niedrigen Rechenkosten deutlich verbessern, was die Effektivität und den praktischen Wert dieser Methode bestätigt und für die Verkehrszeichenerkennung in intelligenten Verkehrsszenarien eine zuverlässige technische Unterstützung bietet.