På utvecklarkonferensen WWDC presenterade Apple alla nyheter i sina operativsystem för mobila enheter och datorer. Men fram tills en timme in i öppningstalet hade de fortfarande inte sagt det ord som de så noga har undvikit det senaste året. AI.
Något som inte har gått varken analytiker, pressen eller användarna förbi. Under tiden har Microsofts Copilot gått framåt med stormsteg tack vare OpenAI och deras ChatGPT, Googles Gemini firar nya triumfer och ärkefienden Samsung har lanserat sin Galaxy AI med praktiska mobilfunktioner. Vad håller Apple på med, har alla undrat. Sitter de och filar på något revolutionerande som kommer köra om konkurrenterna, eller har de helt enkelt missat tåget?
Så klev Tim Cook äntligen fram på scenen och presenterade Apple Intelligence. För naturligtvis måste Apple ha en egen term så att det låter som något helt eget. Så vad var det egentligen som Apple visade upp?
För det första har Siri äntligen blivit användbar. Det vill säga att den förstår vad man säger och faktiskt kan göra något vettigt.
Här har Apple ett stort övertag eftersom operativsystemet har tillgång till all din personliga information, dina meddelanden, dina email, din kalender och dina foton. Därför kan den göra riktigt användbara saker som att förstå att det är samma person som skickat ett meddelande och ett mejl, och hitta infon du letade efter. Eller förstå kopplingen mellan personer, tider och platser i kalendern. Det här är killer-applikationen som konkurrenterna aldrig kommer att kunna möta med mindre än att du släpper in dem i mobilen och låter informationen laddas upp på nätet. En integritetsmardröm.
Vad de trycker på är dock funktioner som hjälp med att skriva. Alltså att kunna korrekturläsa, formulera om, ändra tonen i texten, summera text eller ta fram punktlistor för presentationer. Men det är ju exakt vad konkurrenterna gjort ett tag nu så det kändes knappast revolutionerande. Samma sak med personigenkänning i foton och fotoredigeringsfunktioner som funnits länge i Google Fotos.
Och sen spårar det ur totalt. ”AI kan hjälpa dig göra emojis”. Va? Vem har efterfrågat det? Skolbarn? Nu kan den visserligen även generera bilder, men det känns som en blek kopia av konkurrenter som ImageFX.
Och sen fick vi äntligen veta vad samarbetet med ChatGPT, som det har gått massor av rykten om, egentligen gick ut på. Skulle det bli en ”Siri powered by OpenAI”? Nej, det blev i stället en tjänst som Siri hänvisar till när man ställer frågor som den inte kan besvara. Med andra ord motsatsen till någonting integrerat och Steve Jobs beskrivning av Apples designfilosofi ”It just works”. Det känns inte Apple utan i stället något man tejpat ihop med silvertejp veckan innan presentationen.
Motsatsen till vad Elon Musk har börjat skrika om alltså. Nej, Elon, se presentationen. Apple skickar absolut inte dina personliga uppgifter till ChatGPT. Det är därför de är tvingade att ställa frågan ”Vill du att jag frågar ChatGPT om det?”. För att de ska kunna hålla löftet om att när du använder en Apple-produkt så värnar de om din integritet.
Så hur ska Apple lösa detta? De måste naturligtvis ha en egen privat molnlösning med språkmodeller. Något som de i presentationen faktiskt i förbigående berättade att de har. Private Cloud Compute används när din fråga är för komplicerad för att besvaras på din enhet. Men de behöver göra som konkurrenterna och träna den på all information på nätet, så att den kan svara på vad som helst. Men uppenbarligen är det så långt borta att de tvingats tejpa på ChatGPT så länge.
Nu har visserligen inte Apple Intelligence släppts än. Den kommer ”senare i år”. Så vi kanske inte ska döma dem alltför hårt innan vi faktiskt kunnat testa det själva. Men de har inte direkt krossat konkurrenterna.
Läs också:
Flodvåg av nyheter i Apples operativsystem
Många små och stora nyheter i iOS 18, iPadOS 18, watchOS 11 och macOS Sequoia.