Utviklingen av kunstig intelligens (AI) har gjort store fremskritt på relativt kort tid, men det er fortsatt mye som gjenstår. Ledende produkter som ChatGPT og Claude Sonnet tilbyr imponerende muligheter, men med betydelige logiske begrensninger.
Dette er imidlertid i ferd med å endre seg. I forrige uke rapporterte Reuters at OpenAI, skaperen av ChatGPT, jobber med en ny tilnærming til AI-modeller som en del av “Project Strawberry“, også kjent som “Q*“, som vil gi store språkmodeller (LLM-er) bedre resonnement.
Selv om kilden som er kjent med saken ikke bekreftet når Strawberry ville bli utgitt, delte de intern dokumentasjon som gir noen grunnleggende detaljer om prosjektet.
Techopedia fulgte opp rapporten for å få en avklaring fra OpenAI, men verdens ledende AI-oppstart svarte ikke umiddelbart på en kommentar.
Nøkkelpunkter
- Strawberry er et internt prosjekt hos OpenAI, ifølge Reuters).
Modellen var tidligere kjent som Q*. - OpenAIs modell vil angivelig ha forbedrede resonneringsevner – i stand til å håndtere mer komplekse flertrinnsoppgaver.
- Denne løsningen kan operere mer autonomt enn eksisterende LLM-er.
Hva vi vet om OpenAIs Strawberry
Foreløpig er det lite informasjon om Strawberry, men et av dokumentene som Reuters har gjennomgått, beskriver et prosjekt som bruker Strawberry-modellene til å navigere på internett på egen hånd for å utføre “dyp forskning”.
Dette vil gjøre det mulig for en modell å gjennomsøke internett, trekke ut informasjon fra artikler og annet innhold, som den deretter kan bruke til å kontinuerlig forbedre resonnementet sitt over tid.
Det er verdt å merke seg at en av Reuters kilder bemerket at Strawberry deler likheter med Self-Taught Reasoner (STaR)-teknikken som ble utviklet ved Stanford i 2022. Under STaR kan en modell iterativt lage sine egne treningsdata og bli mer intelligent over tid.
Kilden hevdet også at interne dokumenter tyder på at OpenAI designer Strawberry for å utføre oppgaver med lang horisont – mer komplekse oppgaver som krever at en modell utfører en rekke handlinger over tid. Å gi modellen muligheten til å utføre slike oppgaver vil gi den større uavhengighet enn dagens LLM-er.
Alon Yamin, medgrunnlegger og administrerende direktør i Copyleaks, sier til Techopedia:
“OpenAIs “Strawberry”-prosjekt signaliserer et betydelig fremskritt innen AI-kapasiteter, og kan potensielt revolusjonere hvordan vi samhandler med generativ AI-teknologi og hvordan den løser komplekse problemer. Implikasjonene for forskning, programvareutvikling og til og med vitenskapelige oppdagelser er enorme.
“Samtidig som vi omfavner denne nye teknologien, må vi likevel fortsette å prioritere implementeringen av omfattende beskyttelsestiltak. Disse sikkerhetsmekanismene vil sikre at AI-fremskritt som “Strawberry” utnyttes på en ansvarlig måte, slik at vi reduserer potensielle risikoer og maksimerer den positive innvirkningen de har på samfunnet.”
Hvorfor er Strawberry viktig?
Hvis den rapporterte informasjonen er korrekt, tyder det på at OpenAIs LLM-utvikling er i ferd med å utvikle seg slik at AI-modellene vil kunne lære mer selvstendig og utføre komplekse flertrinnsoppgaver.
Modeller som bruker denne tilnærmingen, vil kunne automatisere et bredere spekter av oppgaver enn dagens LLM-er, som krever en høy grad av menneskelig overvåking. For eksempel må brukerne ikke bare legge inn spørsmål for å bruke ChatGPT, de må også faktasjekke utdataene for å sikre at de ikke inneholder hallusinasjoner og feilaktige utsagn.
Dette er fordi LLMS ikke tenker autonomt som mennesker. De er opplært til å lære seg mønstre i menneskelig språk og forutsi responser på grunnleggende input. Derfor tenker de ikke på samme måte som et menneske, og de har ikke noe begrep om sunn fornuft eller logikk.
La oss ikke bli for begeistret ennå
Det er ingen tvil om at Strawberry vil tilføre markedet noen nyvinninger, men på dette stadiet er det viktig å ikke la seg rive med av hypen. I forkant av lanseringen av GPT-4o var det tross alt mange rykter om en lansering av GPT-5.
Selv om GPT-4o har vært et solid multimodalt bidrag til LLM-markedet, har den ikke klart å skille seg ut fra andre populære språkmodeller som Claude 3 Opus/Sonnet eller Gemini når det gjelder ytelse.
Når det er sagt, vil Strawberry være et kjærkomment tilskudd til markedet hvis den avdekker nye teknikker som kan forbedre resonneringsegenskapene til LLMS, på samme måte som RAG ( retrieval augmented generation ) og andre teknikker har vært det.
De langsiktige implikasjonene av Strawberry
Inntil vi får en bekreftelse fra OpenAI, på den ene eller andre måten, er det vanskelig å identifisere de langsiktige implikasjonene av Strawberry. Er prosjektet legitimt? Kan det bli skrinlagt?
Men hvis informasjonen er troverdig, tyder det på at LLM-er er i ferd med å utvikle seg fra å være menneskeassisterte til en mer autonom rolle, med mulighet til å skape sine egne treningsdatasett og utføre oppgaver med minimal assistanse.
Fra et ovenfra-og-ned-perspektiv kan muligheten til å automatisere opprettelsen av treningsdata redusere arbeidsmengden til forskere innen kunstig intelligens og maskinlæring, som vanligvis må kuratere datasett, mens muligheten til å håndtere komplekse automatiseringer vil åpne for et bredere spekter av bruksområder, for eksempel innen programvareutvikling.
En slik tilnærming kan også øke risikoen. Hvis modellene er mer uavhengige, vil det uunngåelig bli mindre menneskelig tilsyn og kontroll. Dette reiser spørsmål om hvorvidt AI-genererte treningsdata og autonome handlinger kan holdes i tråd med ansvarlig AI-utvikling.
Strawberry vil i det minste kunne gi svar på mer komplekse spørsmål, og vil være et lite skritt på OpenAIs reise mot å utvikle kunstig generell intelligens (AGI), en type AI som kan prestere på linje med menneskelig intelligens.
Konklusjon
Den generative AI-berg-og-dal-banen har fortsatt mange overraskelser i vente. Foreløpig er vi inne i en rolig periode, men det kommer ikke til å forbli slik.
Nye funksjoner vil utvikle seg, og oppgavene du kommer til å kunne automatisere med AI, kommer uunngåelig til å øke.