För att vara ärliga är det ”smarta hemmet” än så länge långt ifrån smart. Vi använder termen löst för uppkopplade apparater med en app. Men medan sensorer och kameror kan underrätta oss att något har hänt så är det fortfarande upp till oss att lista ut vad som hänt, och hur det påverkar annat. Allt tänkande och automatiserande är upp till oss.
Ett exempel är säkerhetskamerorna. I många fall är de så dumma att de endast talar om för oss att de upptäckt rörelse. Men med mängden falsklarm leder det oftast bara till att man frustrerat stänger av alla notiser. En del kan känna igen fordon, paket och husdjur, och de allra mest avancerade har ansiktsigenkänning och kan låta bli att larma när familjemedlemmar ses.
Men nu vill Google trycka in Gemini AI i sina produkter för att faktiskt göra dem smarta. Nest-kameror ska i framtiden kunna förstå vad de ser och i stället rapportera ”hunden gräver i trädgården” eller ”barnen badar i poolen”. Det leder också till att man ska kunna ställa frågor i klartext som ”har barnen lämnat cyklarna på uppfarten?” eller ”Har DHL kommit med paket idag?”.
En av de mer frustrerande delarna med att göra hemmet smart är att programmera automatiseringar. Vilka sensorer ska man använda, vad är det man vill uppnå och hur får man det att fungera varje gång? Där tänker Google att Gemini kan hjälpa dig genom att du bara talar om vad du vill uppnå. Som att ”lås alla dörrar och släck alla lampor vid läggdags”, eller till och med luddiga saker man vill uppnå som ”hjälp barnen komma ihåg att ställa undan cyklarna när de kommer hem från skolan”.
Naturligare samtal med Google Assistant (Video: Google)
Google berättar också att deras röstassistent håller på att lära sig att förstå mer allmänt formulerade frågor, precis som vi börjat vänja oss att kommunicera med chatt-AI.
Dessa uppdateringar är inget som kommer i morgon, utan kommer testas i mindre skala under året för att rullas ut allmänt när de fungerar tillfredställande.