AI og ML nyheder på dansk

Lav WAF ML-modellerne brumme: spar ti årtiers behandlingstid

I den sammenhæng med WAF-angrebsværdien, som er Cloudflares maskinlæringslag (ML) bygget på toppen af deres Web Application Firewall (WAF), har funktionens popularitet skabt behov for ydelsesforbedringer. Funktionens mål er at supplere WAF og opdage angreb, der ikke er blevet mødt før, ved at fange zero-day-sårbarheder og forbedre kundesikkerheden mod opblomstrende og ukendte trusler. For at optimere ydeevnen af WAF ML-modellen blev flere skridt taget. Først blev forarbejdningsfasen optimeret ved at bruge Aho-Corasick DFA til at erstatte hash map-lookups, hvilket reducerede latency med 47,84% til 1,64x. Derefter blev en match-baseret tilgang brugt, hvilket yderligere reducerede latency med 53,45% til 2,15x. Næste skridt var udviklingen af en ny bogstav-erstatningsimplementering, som dobbelte forarbejdningshastigheden og gjorde den fire til fem gange hurtigere end den originale version. Efter det blev en grenløs ngram-lookup implementeret, hvilket reducerede latency med 91,33% til 11,54x. Dette blev opnået ved at forudberegne offset-lookup-tabeller og bruge dem til at erstatte sammenligningsoperationer med direkte hukommelsesadgange, som er meget hurtigere og ikke involverer grenvending. Til sidst blev modelinference optimeret ved at aktivere SIMD-matrix-multiplication og bruge XNNPack, hvilket reducerede latency med 77,17% til 4,38x. Desuden blev en LRU-cache implementeret for at springe over redundant execution og yderligere reducere latency. I alt reducerede optimeringerne WAF ML-eksekutionstiden med ~81,90%, fra 1519 til 275 mikrosekunder, eller 5,5 gange hurtigere.
blog.cloudflare.com
Making WAF ML models go brrr: saving decades of processing time
Create attached notes ...