Meta komt met drie nieuwe Llama 4-taalmodellen: Llama 4 Scout, Llama 4 Maverick en Llama 4 Behemoth. De taalmodellen zijn op een nieuwe ‘mixture-of-experts’-architectuur gebaseerd. Meta claimt dat de nieuwe Llama 4-taalmodellen beter presteren dan concurrerende llm’s.
Uit een blogbericht van Meta blijkt dat Llama 4 Scout 109 miljard parameters heeft meegekregen en 17 miljard actieve parameters per opdracht. Dit compacte model telt zestien experts, een context window van 10 miljoen tokens en past op een enkele Nvidia H100-datacentergpu. Het taalmodel zou op heel wat benchmarks beter presteren dan Gemma 3, Gemini 2.0 Flash-Lite en Mistral 3.1 en is beschikbaar via Llama.com en Hugging Face.
Leave a Reply
You must be logged in to post a comment.