AI og ML nyheter på norsk

Lage WAF ML-modeller som går fort: spare tiår med prosesseringstid

I den sammenhengen av WAF-angrepspoeng, som er Cloudflares maskinlæringslag (ML) bygget på toppen av deres webapplikasjonsfirewall (WAF), har funksjonens popularitet drevet behovet for ytelsesforbedringer. Funksjonens mål er å supplere WAF og detektere angrep som ikke har blitt møtt før, fange null-dag-sårbarheter og forbedre kundesikkerheten mot fremvoksende og ukjente trusler. For å optimalisere ytelsen av WAF ML-modellen, ble flere trinn tatt. Først ble forbehandlingsfasen optimalisert ved å bruke Aho-Corasick DFA til å erstatte hash-kart-søk, noe som reduserte latency med 47,84% til 1,64x. Deretter ble en match-basert tilnærmelse brukt, noe som ytterligere reduserte latency med 53,45% til 2,15x. Neste ble en ny bokstav-erstatningsimplementasjon utviklet, som doblet forbehandlingshastigheten og gjorde den fire til fem ganger raskere enn den originale versjonen. Etter det ble en grenløs n-gram-søk implementert, noe som reduserte latency med 91,33% til 11,54x. Dette ble oppnådd ved å forhåndskomputere offset-søk-tabeller og bruke dem til å erstatte sammenligningsoperasjoner med direkte minne-tilganger, som er mye raskere og ikke involverer grenvending. Til slutt ble modell-inferansen optimalisert ved å aktivere SIMD-matrise-multiplikasjon og bruke XNNPack, noe som reduserte latency med 77,17% til 4,38x. I tillegg ble en LRU-cache implementert for å hoppe over redundante kjøringer og ytterligere redusere latency. Totalt sett reduserte optimaliseringene WAF ML-kjøretiden med ca. 81,90%, fra 1519 til 275 mikrosekunder, eller 5,5x raskere.
blog.cloudflare.com
Making WAF ML models go brrr: saving decades of processing time
Create attached notes ...