Ollama bliver hurtigere på Mac - sådan kører du AI lokalt
Det populære værktøj til at køre kunstig intelligens på din Mac er blevet betydeligt mere effektivt. Vi forklarer hvad der er sket, og hvordan du får det bedste ud af det.
Det populære værktøj til at køre kunstig intelligens på din Mac er blevet betydeligt mere effektivt. Vi forklarer hvad der er sket, og hvordan du får det bedste ud af det.
Hvis du ejer en Mac med Apples egen chip – såkaldt Apple silicon – har du lige fået en grund til at være glad. Ifølge 9to5Mac har udviklingen af Ollama, et af de bedste værktøjer til at køre kunstige intelligensmodeller lokalt på din computer, fået et betydeligt boost i hastighed.
Ollama er især populært blandt tech-entusiaster, fordi det giver dig mulighed for at køre avancerede AI-modeller helt uden internetforbindelse. Det betyder både mere privatliv og ingen begrænsninger på, hvornår og hvor ofte du kan bruge systemet.
Det afgørende upgrade handler om integration af noget kaldet MLX – et framework specielt designet til at udnytte Apples silicium-chips optimalt. Hvor tidligere versioner af Ollama fungerede, men ikke helt var tilpasset Macs hardware, arbejder MLX meget mere effektivt med de særlige processorer, som Apple designer til sine computere.
Resultatet er enkelt: dine AI-modeller kører hurtigere, og din Mac bliver mindre varm under køring. Det betyder længere batterilevetid, hvis du har en MacBook, og mindre støj fra køleventilerne.
At installere den opdaterede Ollama med MLX-support er en ligetil proces for de fleste brugere. Du downloader blot den seneste version og starter systemet op på samme måde som før – teknologien arbejder bag kulisserne.
Hvis du aldrig har prøvet at køre lokale AI-modeller før, kræver det nogle grundlæggende computerkendskaber, men det er langt fra raketvidenskab. Mange Mac-ejere opdager, at det åbner helt nye muligheder for at arbejde med kunstig intelligens uden at skulle bekymre sig om internetforbindelse eller databehandling hos tredjepart.
Kilde:https://9to5mac.com/2026/03/31/ollama-adopts-mlx-for-faster-ai-performance-on-apple-silicon-macs/
Sidst opdateret: 1. april 2026 kl. 00.00