De generatieve AI-revolutie was vooral gericht op het uitvoeren van grote en complexe AI-modellen in serverdatacenters. Sommige AI-modellen zijn echter voldoende geoptimaliseerd om op standaardcomputers te draaien, en Intel boekt op dat gebied enige vooruitgang.
Intel heeft vandaag aangekondigd dat er nu meer dan 500 AI-modellen zijn geoptimaliseerd voor zijn nieuwe Intel Core Ultra-processors, die in december werden onthuld en in nieuwe pc-laptops zijn verschenen. Die lijst bevat waarschijnlijk veel experimentele en testmodellen die voor de meeste toepassingen geen praktisch doel dienen, maar er zijn een paar grote modellen: Phi-2, Meta's Lllama-model, Mistral, Bert, Whisper en Stable Diffusion 1.5.
Intel zei in een persbericht: “Modellen vormen de ruggengraat van AI-verbeterde softwarefuncties zoals het verwijderen van objecten, superresolutie van afbeeldingen of het samenvatten van tekst.” Er is een direct verband tussen het aantal ingeschakelde/geoptimaliseerde modellen en de breedte van gebruikersgerichte AI-functies die op de markt kunnen worden gebracht. Zonder model kan de functie niet worden ontworpen. Zonder runtime-optimalisatie kan de functie niet de beste prestaties leveren.”
De meeste (zo niet alle) AI-modellen kunnen op niet-Intel-hardware draaien, maar door ondersteuning toe te voegen voor de nieuwere hardwarefuncties die specifiek zijn voor de nieuwste chips van Intel, worden ze praktischer voor gebruik in de echte wereld. Intel zei bijvoorbeeld dat het optimalisatieproces van het OpenVINO AI-model 'load-balancing over alle rekeneenheden omvatte, de modellen comprimeerde om efficiënt op een AI-pc te werken, en het optimaliseren van de runtime om te profiteren van de geheugenbandbreedte en de kernarchitectuur binnen'. Intel Core Ultra.”
Machine learning en AI-modellen die lokaal op computers draaien zijn niets nieuws, maar het lokaal draaien van nieuwere generatieve AI-modellen op pc's kent een aantal interessante gebruiksscenario's. U zou zoiets als ChatGPT en Microsoft Copilot volledig op uw eigen pc kunnen laten draaien, waardoor mogelijk de privacyproblemen en netwerkconnectiviteitsvereisten worden geëlimineerd die gepaard gaan met het verzenden van snelle gegevens naar externe servers. De lokale chatbot ChatRTX van NVIDIA is een stap in die richting, maar is nog steeds experimenteel en vereist een pc met een krachtige grafische kaart uit de RTX 30- of 40-serie.
Intel hoopt dat software die deze geoptimaliseerde modellen gebruikt, mensen ertoe kan aanzetten nieuwere computers met Core Ultra-processors te kopen. Voorlopig gaan cloudgebaseerde AI-tools zoals ChatGPT en Copilot echter nergens heen.
Bron: Intel
Leave a Reply
You must be logged in to post a comment.