• Publisert
  • 2 min

AI-nytt: Nye toppmodeller, nye priser og hvorfor agentene endrer spillereglene

Det største skiftet i AI nå handler ikke om modellene i seg selv, men om hvem som bruker dem. Når AI-agenter begynner å navigere og bruke digitale tjenester på egne vegne, endrer det kravene til hvordan løsningene våre bør bygges. Her er det vi i Epinova mener er verdt å følge med på nå.

Disclamer: Innholdet er AI-generert basert på diskusjoner i våre faggrupper, kvalitetssikret av forfatter.

Dette har skjedd siden sist

  • Claude Opus 4.7 ble lansert av Anthropic — Anthropics nye toppmodell. anthropic.com/news/claude-opus-4-7
  • GPT-5.5 er nå tilgjengelig fra OpenAI. openai.com/index/introducing-gpt-5-5
  • DeepSeek v4 ble sluppet — en open-weights-modell som ifølge tester ligger på nivå med Opus 4.6 (uten "thinking"), til en brøkdel av prisen. Sammen med Kimi K2.6, GLM 5.1 og Minimax 2.6 viser den at de kinesiske open-weights-modellene fortsetter å nærme seg de amerikanske flaggskipene. Teknisk rapport på Hugging Face

AI blir dyrere. Modellvalg betyr mer

GitHub har annonsert nye token-multiplikatorer for Copilot fra 1. juni: Opus får 27x, Sonnet 9x, og GPT-5.3 Codex / 5.4 settes til 6x. Modeller og priser hos GitHub Copilot

Dette er verdt å merke seg for alle som baserer utviklingsflyt på de tyngste modellene — kostnadsbildet endrer seg raskt, og det blir viktigere å bevisst velge modell etter oppgave.

Lokal AI — hva skal man se etter i hardware

For dere som vurderer kjøring av språkmodeller lokalt (av personvern-, kostnads- eller compliance-grunner): den viktigste enkeltfaktoren for hastighet er minnebåndbredden mellom prosessor og minne, ikke ren regnekraft. Token-generering er "memory bandwidth bound", mens prompt-tolkning er "compute bound".

Praktisk betyr dette at en eldre Apple M1 Ultra ofte yter bedre enn en nyere M5 til lokal AI, fordi Ultra-versjonen har vesentlig høyere minnebåndbredde. Tilsvarende: dedikert GPU med rask VRAM slår CPU+RAM. Sjekk minnebåndbredde først når dere vurderer hardware til formålet.

Agentic engineering — hastighet og skalering

Et godt eksempel fra Johan Sannebland sitt nyhetsbrev: OpenAI brukte fem måneder ekstra på å bygge Windows-versjonen av sin første ChatGPT-desktop-app i 2024. To år senere ble nye Codex bygget med én felles React/TypeScript-kodebase for begge plattformer — og hovedfunksjonene (web-browser, computer-use, image generation, tasks) ble lagt til i løpet av to måneder for tre millioner brukere.

Poenget: når AI skriver mesteparten av koden, blir parallelle kodebaser og legacy-systemer en flaskehals for tempo, ikke bare for vedlikehold. Spørsmålet for de fleste virksomheter er hvilke deler av porteføljen som er klare for denne arbeidsformen — og hvilke som vil bremse den.

Er løsningene dine klare for AI-agenter?

Et nyttig konsept som dukker opp i bransjen: isitagentready.com. Etter hvert som AI-agenter i økende grad navigerer nettsider og systemer på vegne av brukere, blir tilgjengelighet og strukturert innhold ikke bare en UX- eller universell utforming-sak — det blir en forutsetning for at agentene faktisk klarer å bruke tjenestene. Vi ser blant annet at AI-baserte browsere ofte navigerer via accessibility-treet for å unngå å analysere skjermbilder for hvert valg.

Litt for moro skyld:

Microsoft har nå lansert så mange Copilot-varianter at noen har laget et kart for å holde oversikt — det er 81 stykker. How many Microsoft Copilot are there?