Artificiell intelligens är inget tillfälligt fenomen, det är här för att stanna. Enligt Gartner kommer mer än 80 procent av företagen att ha använt någon form av generativa AI-API:er eller applikationer år 2026. Om du planerar att tillhöra dessa 80 procent måste du bestämma det bästa sättet att utbilda och distribuera AI, på plats eller i molnet.
AI-träning kräver specialiserad hårdvara som är mycket, mycket dyr jämfört med vanlig serverutrustning. Det börjar på ett sexsiffrigt dollarbelopp och kan uppgå till flera miljoner dollar. Och den hårdvaran kan inte återanvändas för andra ändamål, till exempel databaser.
Utöver inköp och underhåll av AI-hårdvaran tillkommer den modell som AI-applikationen bygger på. Träning är den svåraste delen av AI och den mest processintensiva. Träningen kan ta veckor eller till och med månader, beroende på datauppsättningens storlek. Det kan vara månader som du inte har.
Du kan alltså välja mellan att skaffa hårdvaran och göra det själv eller vända dig till en AI-as-a-service-leverantör. AIaaS är det senaste på as-a-service-marknaden och är särskilt inriktat på initiativ inom artificiell intelligens. Den tillhandahålls vanligtvis av stora molntjänstleverantörer, men även mindre leverantörer är på väg in på marknaden. Många AIaaS-leverantörer erbjuder inte bara hårdvaran för leasing, utan även färdiga modeller som kan förkorta tiden för driftsättning med flera månader.
AI fanns redan på radarn för många företag, men när Chat GPT och generativ AI slog igenom i slutet av 2022 kände företagen en större brådska med att införa det, säger Mike Gualtieri, vice vd och chefsanalytiker på Forrester Research.
“Med generativ AI kan de enkelt använda en modell som är färdigbyggd, och det är i stort sett vad de gör. De behöver alltså inte köpa sin egen infrastruktur. Många av dem tänker att de ska finjustera en open source-modell”, säger han.
Hur AIaaS fungerar
AIaaS ger kunderna molnbaserad åtkomst för att integrera och använda AI-funktioner i sina projekt eller applikationer utan att behöva bygga och underhålla sin egen AI-infrastruktur. Dessutom erbjuds förbyggda och förtränade modeller för grundläggande användningsområden som chattbotar, så att kunden inte behöver gå igenom processen med att träna sina egna modeller.
– I grund och botten gör AI-as-a-service det möjligt för dig att påskynda din applikationsutveckling och leverans av AI-teknik i ditt företag, säger Chirag Dekate, analytiker för AI-infrastrukturer och superdatorer på Gartner.
AI-as-a-service erbjuder tre ingångar: applikationsnivån, modellutvecklingsnivån och den anpassade modellutvecklingsnivån, säger han. Om du är ett företag med relativt låg mognadsgrad och vill komma igång med generativ AI kan du utnyttja det i applikationslagret. Eller om du vill hantera dina egna modeller kan du göra det djupare ner i stacken.
AIaaS-leverantörer erbjuder preparering av data, eftersom den ofta är ostrukturerad, samt träning av modeller som tillhandahålls av kunden eller möjligheten att använda förbyggda AI-modeller som de tillhandahåller. Dessa modeller, som tränas på massiva datamängder, kan utföra olika uppgifter som bildigenkänning, dataanalys, naturlig språkbehandling och prediktiv analys.
Du får tillgång till tjänsterna via API:er eller användargränssnitt. På så sätt kan du enkelt integrera AI-funktionaliteten i dina egna applikationer eller plattformar, ofta med minimal programmering.
De flesta AI-as-a-service-leverantörer erbjuder en pay-as-you-go-modell, antingen genom uppmätt användning eller ett fast pris. Det senare är mycket dyrare än det traditionella IaaS/PaaS-scenariot. Nvidia tar till exempel ut ett fast pris på 37 000 dollar per månad för att använda sin DGX Cloud-tjänst.
Är AIaaS rätt för din organisation?
Det stora försäljningsargumentet för AIaaS är kostnaden för den hårdvara som behövs för att köra AI på plats. Företag som är vana vid att köpa vanliga x86-servrar kommer att få en rejäl chock. Nvidias DGX Pod H100-server börjar på runt 500 000 dollar, medan den mycket större SuperPOD börjar på 7 miljoner dollar. För de flesta företag, särskilt små och medelstora, kan detta vara oöverstigligt dyrt, och att hyra tid via AIaaS är det enda alternativet.
På grund av de stora kostnaderna för att hosta AI-modeller på plats är AI-as-a-service mycket bra för experiment, eftersom man bara betalar för det man behöver, enligt Gaultieri på Forrester.
– Så du vill inte bygga upp din egen infrastruktur för 30 användningsfall när kanske bara ett fåtal av dem kommer att fungera. Men du behöver infrastrukturen för att testa den. Så det är en mycket bra experimentell lekplats – mycket ekonomiskt för företag, säger han
Förutom kostnaden för hårdvaran är det också en fråga om tillgänglighet. Nvidia har en enorm orderstock; om du försöker köpa en on-prem SuperPOD i dag kommer du att få vänta i tre till åtta månader.
“En bebis kommer att födas tidigare än du kan driftsätta din infrastruktur på plats”, säger Dekate från Gartner. “Det är den typen av obalans mellan utbud och efterfrågan som vi ser på marknaden i dag.”
Så även om du vill köpa och har pengarna, kan ditt enda alternativ för snabb driftsättning vara att hyra från en AIaaS-leverantör.
Krav på AIaaS
Genom att göra bearbetningen i molnet slipper du bördan och ansvaret för AI-hårdvara i ditt datacenter. Ditt största bekymmer kommer att vara dina data och var de finns. Om de data som du bygger dina modeller från lagras på AWS, Google Cloud eller Microsoft Azure behöver du inte göra så mycket.
Om du å andra sidan bygger dina modeller från dina egna data behöver du ett stort, snabbt rör för att flytta alla dina data från datacentret till molnet. Så nätverk kommer att vara det viktigaste hårdvaruområdet.
Fördelar och nackdelar med AIaaS
Här är några fördelar med att använda AIaaS:
- Mycket lägre inträdesbarriär: Som nämnts ovan är AI-hårdvara betydligt dyrare än vanlig serverhårdvara. AI-as-a-Service är också mycket dyrare än vanliga molntjänster, men det är mycket billigare än att skaffa hårdvaran.
- Snabbare tid till marknaden: Att installera och konfigurera AI-hårdvara på plats är dyrt och tidskrävande – om du ens har den kompetens som behövs för att distribuera och stödja den. Om du överlåter hanteringen av hårdvaran till en molntjänstleverantör sparar du mycket tid och kan fokusera på din verksamhet och kärnkompetens.
- Tillgång till den senaste tekniken: AI kan vara en konkurrensfördel, och det ligger i AIaaS-leverantörernas intresse att ständigt förbättra och förnya sig. Genom att använda tjänsten kan du ligga steget före.
- Skalbarhet: Det här är molnet, och skalbarhet är ett av dess främsta försäljningsargument. Du kan skala upp eller ner AI-tjänsterna så att de passar dina behov.
- Tillgång till AI-expertis: AI befinner sig fortfarande i ett mycket tidigt skede, och antalet it-proffs som kan konfigurera och hantera hårdvaran är begränsat. De flesta som kan hantera AI-hårdvara jobbar på molnjättarna.
Men det finns alltid nackdelar med allt, och AI-as-a-Service är inget undantag:
- Leverantörslåsning: Det kan vara svårt att byta leverantör när man använder en leverantörs plattform.
- Begränsad anpassning: Färdigbyggda modeller är idealiska för allmän användning men kanske inte passar perfekt för dina behov om de är mycket specifika. Därför kan du tvingas bygga och bearbeta dina egna modeller snarare än att använda en modell med öppen källkod.
- Säkerhets- och integritetsfrågor: Att dela dina data med en tredjepartsleverantör kräver noggrant övervägande.
Viktiga kriterier för att välja en AIaaS-plattform
- Stöd för arbetsbelastningar: Enligt Gaultieri är det viktigaste kriteriet för att välja en AIaaS-leverantör om den stöder arbetsbelastningarna för alla tre stegen i AI: dataförberedelse, modellträning och inferens. Dataförberedelse förbises ofta i AI-diskussionen, men det måste göras eftersom de data som AI utnyttjar ofta är ostrukturerade och lagras i datasjöar med obearbetade data.
- Regional infrastruktur: Dikate säger att kundens högsta prioritet bör vara om leverantören har tillräcklig skalkapacitet i deras region och tillämpningsområde. Många företag är globala organisationer, och inte alla molnleverantörer har resurser som distribueras globalt.
- Matcha dina behov med beprövad expertis: Sök efter leverantörer som har erfarenhet av din specifika bransch eller av projekt med liknande utmaningar. Be om fallstudier, kundreferenser och omdömen som visar vad de har åstadkommit.
- Specificera vilken typ av AI du vill använda: Bildigenkänning skiljer sig från intrångsdetektering, som skiljer sig från en chattbot. En AIaaS-leverantör kanske inte är specialiserad på alla former av AI, så se till att deras specialisering uppfyller era behov.
- Kompatibilitet med data och efterlevnad: Se till att leverantörens plattform stöder ditt dataformat och din datavolym. Om dina data är av en mycket reglerad typ, se till att leverantören är certifierad för att hantera dem.
- Skalbarhet: AIaaS-leverantörer kanske inte har tillräcklig kapacitet om era behov fortsätter att växa. Även om framtiden är svår att garantera, särskilt i en snabbväxande bransch som AI, är det ändå tillrådligt att få någon form av löfte om framtida prestanda om det är möjligt.
- Modelluppdateringar och underhåll: AI-modeller körs nästan aldrig en gång och sedan aldrig igen. De kräver regelbunden och rutinmässig uppdatering. Klargör leverantörens policy för lagring av modellen, uppdatering av den och möjligheten för dig att ta tillbaka modellen till dina lokaler och ut ur deras system.
- Programvara för hantering av arbetsbelastning: Slutligen bör du överväga leverantörens programvara för att hantera arbetsbelastningar, särskilt att se till att leverantören kan starta om en arbetsbelastning om det uppstår ett problem under bearbetningen.
– Tänk dig att du bygger en LLM och kör den i en vecka och sedan går något fel, säger Gaultieri.
– Om det är en arbetsbelastning på flera veckor vill man inte börja om från början. Så har de saker som checkpointing så att du kan starta om arbetsbelastningar?
Ledande AIaaS-leverantörer
AI-as-a-service är inget litet projekt. Även om nyare aktörer som Nvidia, OpenAI och till och med vissa managed service-leverantörer är på gång, är de största aktörerna inom AIaaS idag de gigantiska molntjänstleverantörerna, eftersom de är de företag som har de ekonomiska resurserna att stödja AIaaS i företagsskala. Bland deras erbjudanden finns
AWS AI: Amazon Web Services har ett ganska brett utbud av AI-tjänster, som börjar med förbyggda, färdiga tjänster som kan hjälpa till att dra igång ett AI-projekt och komma runt behovet av erfarna datavetare och AI-utvecklare. Bland dessa tjänster finns Amazon Translate (språköversättning i realtid), Amazon Rekognition (bild- och videoanalys), Amazon Polly (text-till-tal) och Amazon Transcribe (tal-till-text).
Hanterade infrastrukturverktyg inkluderar Amazon SageMaker för att bygga, träna och distribuera maskininlärningsmodeller, Amazon Machine Learning (AML) drag-and-drop-verktyg och mallar för att förenkla byggandet och distributionen av ML-modeller, Amazon Comprehend för naturlig språkbehandling, Amazon Forecast för att ge exakta tidsserieprognoser och Amazon Personalize med personliga produkt- och innehållsförslag.
Inom generativ AI erbjuder AWS Amazon Lex för att bygga AI-botar för konversation, Amazon Code Guru för kodanalys och rekommendationer för förbättrad kodkvalitet och säkerhet samt Amazon Kendra, en intelligent söklösning.
Microsoft Azure AI: Microsofts AI-tjänster riktar sig till utvecklare och datavetare och bygger på Microsoft-applikationer som SQL Server, Office och Dynamics. Microsoft har integrerat AI i sina olika affärsapplikationer i molnet och på plats.
Microsoft är också en dealmaker, som säkrar partnerskap och samarbetar med ledande AI-företag, inklusive Chat GPT-skaparen Open AI. Många AI-appar finns tillgängliga på Azure Marketplace.
Leverantören erbjuder ett antal färdigbyggda AI-tjänster, såsom taligenkänning, textanalys, översättning, synbearbetning och distribution av maskininlärningsmodeller. Det finns också en OpenAI-tjänst med förtränade stora språkmodeller som GPT-3.5, Codex och DALL-E 2.
Google Cloud AI: Googles AI-tjänst är specialiserad på dataanalys, med verktyg som BigQuery och AI Platform och erbjuder AutoML-tjänsten, som har automatiserad modellbyggnad för användare med mindre kodningserfarenhet.
Google Cloud AI erbjuder en enhetlig plattform som heter Vertex AI för att effektivisera AI-arbetsflödet och förenkla utveckling och distribution. Plattformen erbjuder också ett brett utbud av tjänster med förbyggda lösningar, anpassad modellutbildning och generativa AI-verktyg.
AI Workbench är en samarbetsmiljö där datavetare och utvecklare kan arbeta med AI-projekt, med AutoML för att automatisera mycket av arbetsflödet för maskininlärning och MLOps för att hantera ML-livscykeln mer effektivt genom att se till att ML-modeller utvecklas, testas och distribueras på ett konsekvent och pålitligt sätt.
Google Cloud AI har ett antal färdiga AI-lösningar:
- Dialogflow: En plattform för konversationell AI för att bygga chatbots och virtuella assistenter.
- Natural Language API: Analyserar text för sentiment, entitetsutvinning och andra uppgifter.
- Vision AI: Bearbetar bilder och videor för objektdetektering, scenförståelse med mera.
- Translate API: Tillhandahåller maskinöversättning på olika språk.
- Tal-till-text och text-till-tal: Konverterar mellan talat språk och text.
För generativ AI är Vertex AI Search and Conversation en verktygssvit som är särskilt utformad för att bygga generativa AI-applikationer som sökmotorer och chattbotar, med mer än 130 grundläggande förtränade språkmodeller som PaLM och Imagen för avancerad textgenerering och bildskapande.
Google presenterade nyligen sin nya Gemini-modell, efterföljaren till chattboten Bard. Gemini ska enligt uppgift kunna generera mycket mer komplex matematik och vetenskap samt avancerad kod i olika programmeringsspråk. Den finns i tre versioner: Gemini Nano för smarta telefoner, Gemini Pro, som är tillgänglig på pc och körs i Googles datacenter, och Gemini Ultra, som fortfarande är under utveckling men som sägs vara en mycket mer avancerad version av Pro.
IBM Watsonx: IBM Watson AI-as-a-service, nu känt som Watsonx, är ett omfattande utbud av AI-verktyg och tjänster som är kända för sin tonvikt på automatisering av komplexa affärsprocesser och sina branschspecifika lösningar, särskilt inom hälso- och sjukvård och finans.
Watsonx.ai Studio är plattformens kärna, där du kan träna, validera, finjustera och distribuera AI-modeller, inklusive både maskininlärningsmodeller och generativa AI-modeller. Data Lakehouse är ett säkert och skalbart lagringssystem för alla dina data, både strukturerade och ostrukturerade.
AI Toolkit är en samling förbyggda verktyg och anslutningar som gör det enkelt att integrera AI i dina befintliga arbetsflöden. Dessa verktyg kan automatisera uppgifter, extrahera insikter från data och bygga intelligenta applikationer.
Watsonx innehåller också ett antal förtränade AI-modeller som du kan använda direkt och utan någon träning. Dessa modeller täcker uppgifter som naturlig språkbehandling, datorseende och taligenkänning.
Oracle Cloud Infrastructure (OCI) AI Services: Oracle har hittills legat långt efter marknadsledarna inom molntjänster, men har flera fördelar som är värda att beakta. Oracle är trots allt ett stort företag inom affärsapplikationer, från sin databas till sina applikationer. Alla deras lokala applikationer kan flyttas till molnet för en hybridinstallation. Detta gör det enkelt och okomplicerat att flytta dina lokala data till molnet för dataförberedelse och utbildning. Det är en liknande fördel som Microsoft har med sina äldre on-prem-applikationer.
Oracle har investerat mycket i GPU-teknik, och det är det primära sättet för databehandling inom AI just nu. Så om du vill köra AI-appar på Nvidia-teknik kan Oracle hjälpa dig. Och Oracles AI-tjänster är de billigaste bland molnjättarnas, en viktig faktor med tanke på hur dyr AI-as-a-service kan bli.
OCI AI Services presenterar en mångsidig portfölj av verktyg och tjänster för att ge företag olika AI-funktioner. Precis som IBM:s Watsonx är det inte bara en tjänst utan en samling funktioner som tillgodoser olika behov, inklusive upptäckt och förebyggande av bedrägerier, taligenkänning, språkanalys, dokumentförståelse med mera.
Oracles generativa AI-tjänst stöder LLM:er som Cohere och Metas Llama 2, vilket möjliggör uppgifter som skrivhjälp, textsammanfattning, chattbotar och kodgenerering. Oracle Digital Assistants förbyggda ramverk för chattbotar möjliggör snabb utveckling och driftsättning av röst- och textbaserade konversationsgränssnitt.
Machine Learning Services erbjuder verktyg för data scientists att tillsammans bygga, träna, distribuera och hantera anpassade maskininlärningsmodeller. De stöder populära open source-ramverk som Tensorflow och PyTtrch.
Slutligen finns OCI Data Science, som tillhandahåller virtuella maskiner med förkonfigurerade miljöer för datavetenskapliga uppgifter, inklusive Jupyter-anteckningsböcker och tillgång till populära bibliotek, vilket förenklar din datautforskning och arbetsflöde för modellutveckling.