Tunga it-bolag backar öppen AI-plattform för företag

I ett försök att förändra hur generativ AI kan användas av företag utan den nuvarande osäkerheten kring dess förmåga att skala och fungera i olika typer av verksamhetssystem, har LF AI & Data Foundation lanserat Open Platform for Enterprise AI (OPEA) i samarbete med flera tunga it-företag.

Målet är att leda utvecklingen av öppna, robusta, multileverantörs- och komponerbara GenAI-system som är flexibla, skalbara och företagsklassade. Bland de teknikjättar som stöder initiativet finns Intel, VMWare, Red Hat, SAS, Cloudera, MariaDB Foundation, Anyscale och Datastax. LF AI & Data Foundation bjuder in och förväntar sig att fler medlemmar ska ansluta sig till initiativet.

– OPEA kommer att öppna upp för nya möjligheter inom AI genom att skapa ett detaljerat, komponerbart ramverk som står i framkant av teknikstackar, säger Ibrahim Haddad, chef för LF AI & Data i ett uttalande, och lyfter fram OPEA:s fokus på öppen modellutveckling, standardiserade modulära pipelines och stöd för olika kompilatorer och verktygskedjor. 

– Detta initiativ är ett bevis på vårt uppdrag att driva open source-innovation och samarbete inom AI- och datagemenskaperna under en neutral och öppen styrmodell, säger Haddad.

– Öppna AI-system med flera leverantörer som OPEA erbjuder spännande möjligheter att driva innovation och värde inom vår organisations AI-strategi, säger Saurabh Gugnani, som är global chef för cyberförsvar och applikationssäkerhet på det nederländska compliance-företaget TMF Group. 

– Genom att utnyttja dessa initiativ kan vi få tillgång till ett mångsidigt ekosystem av AI-teknik, verktyg och expertis från flera leverantörer. Med tillgång till ett brett utbud av AI-teknik och lösningar kan vi hålla oss i framkant när det gäller innovation. Vi kan utforska och använda de senaste framstegen inom AI, inklusive nya algoritmer, modeller och tekniker, för att förbättra våra produkter och tjänster.

Det här är en intressant utveckling eftersom vi tidigare har sett hur plattformar med öppen källkod har gett många företag frihet att utveckla sina egna mycket specialiserade lösningar, menar Faisal Kawoosa, chefsanalytiker och grundare av analysföretaget Techarc. 

– Även inom generativ AI förväntar vi oss att en sådan fas inleds. Till exempel kan ett juridiskt teknikföretag utveckla specialiserade generativ AI-lösningar för jurister som ger djupgående och trovärdig information om juridiska frågor.

Utmaningar som OPEA vill möta

För närvarande svarar de flesta generativa AI-system på frågor och utför uppgifter baserat på de data de tränats på, vilket väcker frågor om deras förmåga att skala upp och fungera. Brist på standardisering och reglering är en annan utmaning när det gäller GenAI-distribution i företag.

”OPEA tänker hantera denna fråga genom att samarbeta med branschen för att standardisera komponenter, inklusive ramverk, arkitekturritningar och referenslösningar som visar prestanda, interoperabilitet, pålitlighet och beredskap i företagsklass”, säger LF AI & Data Foundation.

På senare tid har RAG-modellen (Retrieval-Augmented Generation) fått fotfäste bland företags-AI för sin förmåga att utvinna betydande värde från befintliga datalager, eftersom dess kunskapsbas kan gå utöver de utbildade uppgifterna.

– RAG är den viktigaste metoden för att LLM ska få tillgång till rätt, relevanta datapipelines för att förbättra AI-kvaliteten och användarupplevelsen. Detta är en stor flaskhals på grund av de stängda och svårintegrerade proprietära datapipelines, särskilt inom företagsområdet, säger Neil Shah, analyschef på Counterpoint Research. 

– Därför är det fantastiskt att se LF och viktiga branschintressenter gå samman för att minska komplexiteten i datainhämtning och utforma en mer öppen, flexibel och modulär metod via OPEA.

Standardisering och öppenhet för sådana ramverk är avgörande för införandet av generativ AI i företag, enligt Shah.

Intel, en viktig partner till LF AI & Data i detta initiativ, understryker vikten av OPEA för att hantera kritiska smärtpunkter för RAG-adoption och skalning. 

– Intel ligger i framkant när det gäller att inkubera utveckling av öppen källkod för att bygga pålitlig, skalbar öppen infrastruktur som möjliggör heterogenitet och ger en plattform för utvecklarinnovation, säger Melissa Evers, chef för Software Engineering Group och Strategy to Execution på Intel i ett uttalande

– Det kommer också att definiera en plattform för nästa fas av utvecklarinnovation som utnyttjar det potentiella värde som generativ AI kan tillföra företag och alla våra liv.

TMF Groups Gugnani säger att OPEA-initiativet från LF AI & Data och andra branschjättar skulle kunna lösa företagens fem viktigaste utmaningar: öka flexibiliteten och skalbarheten, främja samarbete, erbjuda banbrytande teknik och driva kostnadseffektivitet.

Generative AI, Industry, Open Source