Derfor giver On-Premise stadig mening i 2025
Introduktion
I over et årti har “cloud-first” været nærmest et dogme i it-branchen – alt skulle i skyen, for det var jo billigere, hurtigere og nemmere. Men nu hvor vi skriver 2024, begynder pendulet at svinge tilbage. Nogle toneangivende spillere er begyndt at forlade skyen og flytte deres systemer tilbage on-premise, dvs. på eget hardware. Et opsigtsvækkende eksempel er Basecamp/HEY, der offentligt annoncerede et “cloud exit” for at spare omkostninger og forenkle driften. Som en dansk infrastrukturrådgiver med 20+ års erfaring i at designe og drive forretningskritiske systemer on-premise (fra regnskabsplatforme til telecom ERP og DNS-infrastruktur), har jeg set hypen komme og gå. I dette indlæg vil jeg – forklare hvorfor on-premise stadig giver mening i 2024, hvilke scenarier det passer til, og hvilke lærdomme vi kan tage med fra både fortidens mainframe-æra og moderne cloud-erfaringer. Målet er ikke at hype on-premise, men at dele realistiske erfaringer og observationer – så du som beslutningstager eller udvikler kan træffe det bedste valg for dine systemer.
Hvorfor cloud ikke altid er svaret
Cloud-løsninger blev solgt på løftet om lave omkostninger, høj hastighed og mindre kompleksitet. I praksis har mange mellemstore organisationer dog oplevet, at gevinsterne kan udeblive. David Heinemeier Hansson (DHH) – medstifter af 37signals (Basecamp/HEY) – beskrev det meget rammende i forbindelse med deres cloud-exit: “They promised the cloud would be cheaper, faster, and easier. For us, the savings never materialized and the team never shrunk.” basecamp.com. Med andre ord, de forventede besparelser og den enklere drift dukkede aldrig op for hans firma, trods 15 års omfattende brug af både Amazon og Google Cloud. Derimod voksede regningen og kompleksiteten.
Denne oplevelse er ikke unik. Et klassisk argument for cloud er, at man slipper for at “drive sine egne servere” – analogien lyder, at “ingen bygger jo sit eget kraftværk”. Men realiteten er, at drift ikke forsvinder i skyen; den ændrer blot karakter. Man bytter fysisk hardware ud med infrastruktur som kode, konfigurationsfiler og et væld af managed services, der hver især skal overvåges og optimeres. DHH påpeger, at det at køre en tjeneste som Basecamp i skyen stadig kræver et dedikeret operationsteam – de kunne ikke skære ned på folk ved at flytte til cloud world.hey.com itweb.co.za. Cloud fjerner altså ikke behovet for kompetencer; nogle ting bliver simplere, men andre bliver mere komplekse, især når man vokser.
Desuden kan prissætningen i skyen overraske negativt. Leje af computere (for det er reelt dét cloud ofte er) indebærer, at udbyderne tager en profit – Amazon Web Services (AWS) havde f.eks. ~30% driftsmargin på $62 mia. omsætning world.hey.com. Den “præmie” betaler kunderne. Cloud kan være billigt i starten, men som ens forbrug bliver stabilt eller stiger, kan det føles som at betale overpris for noget, man kunne eje billigere. Hansson sammenlignede det med at betale en kvart husværdi om året for en forsikring mod jordskælv i et område uden jordskælv – et dyrt sikkerhedsnet for et usandsynligt behov world.hey.com. Når man ikke har ekstreme udsving eller hyper-ustabil vækst, kan det være svært at retfærdiggøre den høje cloud-pris for “fleksibiliteten” – især hvis ens belastning er forudsigelig og stabil.
Cases hvor on-premise giver mening
Hvornår kan det så betale sig at holde sine systemer i eget maskinrum? Erfaring viser, at visse scenarier er oplagte kandidater til on-premise:
Stabil eller forudsigelig belastning: Hvis din applikation kører med jævn load eller forudsigelig vækst, betaler du i skyen for en elastik, du aldrig rigtig strækker. Et konkret eksempel: 37signals betalte over $500.000 årligt for database- og søgetjenester til HEY på AWS – noget DHH kaldte “absurd”, for for det beløb kunne man købe rigtig mange kraftige servere
world.hey.com
itweb.co.za. I sådanne tilfælde kan køb af eget hardware, der udnyttes optimalt 24/7, give langt bedre økonomi. 37signals forventer da også en besparelse på omkring 50-66% af deres infrastrukturudgifter ved at forlade skyen
basecamp.com.Store datamængder og båndbredde: Cloud-udbydere tager sig godt betalt for storage og trafik. Har man petabytes af data eller høj gennemløb, kan egne datacentre eller colocation være billigere i længden. Basecamp/HEY holdt f.eks. længst fast i AWS S3 (fil-storage) pga. en flerårig kontrakt, men planlægger at flytte ~10 PB data til eget dual-datacenter flash-lager i 2025 for at spare yderligere $4 mio. over 5 år world.hey.com.
Performance og specialiserede behov: Hvis man har meget latency-følsomme applikationer eller bruger specialiseret hardware (GPU’er, FPGA’er, etc.), kan on-premise give tuning-muligheder, som generelle cloud-miljøer ikke tilbyder. Et interessant aspekt ved Basecamps cloud-exit var faktisk en uventet performance-gevinst: Da de flyttede Basecamp Classic applikationen fra AWS til egne servere, faldt den mediane svartid fra 67 ms til omkring 19 ms – en drastisk forbedring world.hey.com. DHH bemærkede begejstret, at 95% af alle requests nu er under den “magiske” 300 ms grænse, hvor det før kun var ~85% world.hey.com. Speed is a feature, som han quippede, og det fik de “gratis” med i købet ved at køre på egne servere
world.hey.com.Compliance, kontrol og persondatafordningen: Nogle virksomheder (f.eks. i finans eller offentlig sektor) skal holde data under eget tag for at leve op til regulatoriske krav eller ønsket om datasuverænitet. On-premise giver fuld kontrol over data og infrastruktur, uden at skulle bekymre sig om tredjeparts cloud-jurisdiktion eller pludselige ændringer i servicevilkår.
Langsigtede systemer: Har man en applikation med lang levetid, kan on-premise over tid give ro i sindet. I stedet for konstant at tilpasse sig cloud-udbyderes nye produkter eller prisændringer, kan man designe en langtidsholdbar arkitektur. Mange open source-baserede systemer kører stabilt i årevis uden store omlægninger. Et eksempel er en virksomhed, der bruger Software AG’s ældre databaser (fra 1970’erne!) on-premise – de ved, at systemet er supporteret til 2050, og det kører enorme transaktionsvolumener upåklageligt itweb.co.za. Hvis man har sådan et “ældre” system, giver det ofte mening at beholde det på egne servere, hvor man selv styrer opgraderingscyklus og ikke tvinges ud i cloud-migrering af en velafprøvet løsning.
En CIO fra en stor forsikringsorganisation udtalte for nylig, at cloud kan give mening for nystartede projekter, “men når du begynder at tilføje flere mennesker, compliance-krav og sikkerhed, så stiger omkostningerne”. Med ordentlig planlægning er der “ingen grund til, at man ikke kan gøre det billigere og være mere agil on-prem end hos en cloud-udbyder” itweb.co.za. Det taler til en vigtig pointe: Hvis man på forhånd ved, at en arbejdsbyrde vil køre længe og relativt stabilt, kan man med omhyggeligt design opnå både lavere omkostninger og smidighed ved at køre det selv.
Hybridmodeller og fleksibilitet
Det er dog vigtigt at understrege, at det ikke behøver være enten-eller mellem cloud og on-prem. I praksis vælger mange en hybridmodel, hvor man kombinerer det bedste fra begge verdener. Faktisk kører ca. 55% af alle workloads stadig i traditionelle datacentre i 2024, mens 45% kører i skyen ifølge brancherapporter veeam.com. Data centeret er langt fra dødt – og de fleste organisationer har fundet en balance, hvor nogle systemer forbliver on-premise (eller i private clouds), mens andre kører i offentlige clouds.
Hybridtilgangen kan se forskellig ud afhængigt af behov:
Nogle virksomheder beholder deres kerne-systemer on-premise for at udnytte eksisterende investeringer og sikre stabil drift, men bruger samtidig public cloud til burst capacity ved spidsbelastninger eller til specifikke tjenester (f.eks. CDN’er, ML-tjenester eller globale distributionstjenester), hvor cloud virkelig excellerer.
Andre starter nye projekter i skyen for hurtig time-to-market, men flytter dem hjem igen, når brugermassen vokser, og økonomien tipper. Netop dette skete for Basecamp/HEY: da de lancerede HEY e-mail tjenesten i 2020, var cloud afgørende for at håndtere en uventet strøm af 300.000 brugere på få uger world.hey.com. Men efter stormen lagde sig og forbruget blev mere forudsigeligt, gav det mening at tage kontrollen tilbage on-prem.
En hybridmodel kan også indebære multi-cloud plus on-prem, hvor man undgår afhængighed af én leverandør. Man kan køre visse dele af infrastrukturen på egen hardware og replikere til en cloud som failover, eller omvendt. Fleksibilitet er nøgleordet – man bør kunne flytte det workload derhen, hvor det giver mest mening, uden at være låst fast.
Den store gevinst ved hybrid er, at man som organisation kan være “cloud-smart” frem for blindt “cloud-first”. I stedet for at alt skal i skyen, vurderer man nøgternt pr. applikation: Hvad kræver den af performance, drift og økonomi? Har vi allerede infrastrukturen til den in-house? Hvordan ser regnestykket ud over 3-5 år? Som DHH udtrykker det, bør man “i det mindste regne på det” når cloud-regningen begynder at gøre ondt world.hey.com. Ofte vil et mix være ideelt – cloud til det, den er bedst til, og egne systemer til resten.
Lærdomme fra mainframe-tiden
Historien gentager sig i it-verdenen. Dengang i mainframe-æraen (1960’erne-80’erne) centraliserede man al computing i store maskiner i eget datacenter. Siden kom decentralisering med client-server og senere cloud, hvor vi igen centraliserer – blot i andres datacentre. En erfaren arkitekt vil genkende dette pendul, og der er værdifulde lærdomme at hente:
Stordrift og pålidelighed: Mainframes demonstrerede, at med det rette design kan ét sted (ét datacenter) drive enorme mængder transaktioner med høj pålidelighed. Mange mainframe-systemer kørte (og kører stadig) årti efter årti med oppetid og stabilitet, som moderne løsninger stadig stræber efter. Denne kultur for robusthed og “ingen babysitting” – altså systemer der bare kører uden konstant brandslukning – er noget, vi bør videreføre i on-premise miljøer i dag. Det kræver disciplin i design, grundig test og forståelse for både hardware og software stack.
Langsigtet økonomi: I mainframe-dagene investerede man stort up front, men man fik også værdi ud af hardware i lang tid. Den tankegang kan på ny betale sig. Moderne servere er utroligt kraftige og kan leve længe. 37signals købte fx en række Dell-servere i 2015 for at drive Basecamp 3, og først her ti år senere skifter de dem ud – de fik næsten 3.500 dages service for investeringen, til en afskrivningspris på kun $142 om dagen world.hey.com world.hey.com. De gamle maskiner har genereret hundredevis af millioner dollars i omsætning for virksomheden i den periode, og nogle af dem skal endda genbruges til mindre kritiske formål nu
world.hey.com. Denne levetid og værdiopnåelse er værd at huske på: Eget hardware kan være en fantastisk forretning over tid, hvis man passer det godt. Som DHH bemærkede, så er den dollar man sparer lige så meget værd som den man tjener world.hey.com.Kontrol over teknologistakken: Mainframe-folkene udviklede en dyb ekspertise, fordi de ejede hele stakken fra metal til applikation. I dag har open source bevægelsen gjort det muligt for selv små teams at have lignende kontrol over deres stack – man kan bygge på Linux, PostgreSQL, Kubernetes, etc., alle sammen community-drevne teknologier, som man selv kan tilpasse. Fordelen ved on-premise er, at du bestemmer hvornår der opgraderes, patches eller ændres arkitektur – ikke en ekstern cloudleverandør. Det giver en uafhængighed, som mange har glemt værdien af i en æra af konstant cloud-nyhedsstøj.
Kort sagt minder mainframe-tiden os om værdien af centralt designet stabilitet og at eje sine løsninger fuldt ud. Vi skal naturligvis ikke tilbage til hullkort og terminalland, men principperne om robust arkitektur og maksimering af investeringer er eviggyldige.
Moderne on-premise drift uden hype
En indvending mod on-premise har længe været, at det er “forældet” eller at man sakker bagud ift. cloud-innovation. I realiteten kan man i 2024 drive moderne on-premise miljøer, der udnytter mange af de samme fremskridt som cloud:
Automatisering og DevOps: Værktøjer som Terraform, Ansible, Kubernetes (og 37signals’ eget open source deploy-værktøj Kamal) gør det muligt at automatisere udrulning og drift af on-premise infrastruktur på samme måde, som man ville i skyen. Man kan beskrive sin infrastruktur som kode, lave CI/CD pipelines, overvågning, autoscaling i eget regi osv. Forskellen er blot, at de underliggende ressourcer er ens egne VM’er eller bare metal i et datacenter. 37signals demonstrerede dette ved at migrere deres apps med minimale serviceafbrydelser ved hjælp af bl.a. Kamal og ved at holde deres teamstørrelse uændret under hele cloud-exit processen basecamp.com. Det viser, at nutidens on-prem drift kan være lige så smidig som cloud, når først rammerne er sat op.
Managed services alternativ: Mange cloud-argumenter handler om de rige økosystemer af managed services (databaser, queueing, monitoring, etc.). Men i open source-verdenen findes tilsvarende komponenter, som kan køres on-prem. Eksempelvis kan PostgreSQL eller MySQL tit erstatte en cloud-RDS; Apache Kafka kan køre på egne servere for streaming; Prometheus + Grafana kan give monitoring i verdensklasse uden at sende data til en tredjepart. Ja, man skal selv drifte dem, men med containerization og orkestrering er det blevet langt lettere end for 10 år siden. Og vigtigst: du slipper for de kryptiske cloud-fakturaer, hvor hver lille komponent koster X pr. million requests eller Y pr. GB udgående trafik.
Colocation og partnerskaber: At have on-premise betyder ikke nødvendigvis et serverrum i kælderen under kontoret. Mange bruger colocation-centre, hvor ens udstyr står sikkert, med redundant strøm, køling og netværk – ofte for en brøkdel af, hvad tilsvarende kapacitet koster i skyen world.hey.com
. Derudover findes “remote hands” tjenester (som f.eks. Deft, der hjælper 37signals world.hey.com, så man ikke behøver egne folk fysisk til stede ved serverne til hverdag. Moderne on-prem kan derfor outsources delvist i det praktiske (rack og stack), mens man selv beholder den tekniske kontrol. Dette gør on-premise skalerbart selv for mindre teams.Sikkerhed og stabilitet: On-premise drift giver mulighed for en “keep it simple” tilgang til sikkerhed. I stedet for at håndtere et væld af cloud-tjenesters indbyrdes rettigheder og configs, kan man segmentere sit eget netværk præcis som man vil og have færre angrebspunkter eksponeret. Selvfølgelig kræver det kompetence, men man slipper for at følge med i hver eneste nye sikkerhedsfeature i tre forskellige cloud-konsoller – man kan fokusere på kernekomponenterne. Stabilitetsmæssigt undgår man også afhængighed af andres platform-opdateringer. Hvor mange gange har vi ikke set en cloud-tjeneste opdatere noget, der uforvarende bremsede en applikation? On-prem bestemmer du selv ændringsvinduet.
Samlet set behøver on-premise drift i 2025 ikke være hverken gammeldags eller besværligt. Med den rette tilgang kan det tværtimod være en forlængelse af ens DevOps praksis – bare på egne præmisser. Og som 37signals’ projekt viser, behøver det ikke engang betyde en større driftorganisation end man havde i skyen.
Konklusion: Tid til eftertanke
Cloud computing er fantastisk til mange formål – ingen tvivl om det. Men som årene er gået, er det blevet klart, at “skyen” ikke er et universalmiddel. On-premise løsningers relevans i 2024 bekræftes af både konkrete økonomiske gevinster, præstationsfordele og en nyfunden erkendelse af, at kontrollen over egen infrastruktur også har strategisk værdi. Den nærmest religiøse “alt-til-cloud” bevægelse fra 2010’erne har toppet world.hey.com, og nu handler det om pragmatisme.
Min opfordring til dig som it-beslutningstager eller arkitekt er: Tag skyklapperne af og evaluér nøgternt. Spørg: Hvad koster vores cloud-eventyr egentlig, og kunne det gøres smartere? Hvor kritiske er vores systemer – får vi ro i maven ved selv at holde tøjlerne? Hvad giver mest mening for os om 2-5 år? Måske er svaret stadig cloud – men måske er det en hybridtilgang, eller et pilotprojekt on-premise for at genvinde viden og kontrol. Som DHH bemærkede, kan de potentielle besparelser ved at gentænke tingene være chokerende
world.hey.com, og der er ingen skam i at erkende, at den løsning, der engang var det rigtige, bør revurderes som tingene udvikler sig.
Derfor giver on-premise stadig mening i 2025: fordi det tvinger os til at tænke over arkitektur og omkostninger med langsigtede briller, fordi det giver os et alternativ til at være 100% afhængige af andres platforme, og fordi vi i dag har værktøjerne til at lykkes med det. Beslutningen behøver ikke være drevet af hverken hype eller frygt, men af kølig kalkule og et klart blik for forretningens behov. Så næste gang I diskuterer “cloud vs. on-premise” på ledermødet, husk at svaret – som så ofte i IT – afhænger af konteksten.