Kinect-baserat system utvecklat som känner igen vad du gör

Anonim

Kinect-baserat system utvecklat som känner igen vad du gör

Vetenskap

Ben Coxworth

8 juli 2011

2 bilder

Några av de aktiviteter som Kinect-aktiverat system kunde identifiera (Bild: Cornell University)

När och om vi någonsin får våra personliga robotassistenter, skulle det vara trevligt att tro att vi skulle kunna vara "oss själva" framför dem, göra saker som att skrapa våra butter eller kontrollera vår deodorant - för att de bara är robotar, eller hur? De kommer inte att veta vad vi gör. Tja ... tack vare forskning som för närvarande utförs på Cornell University, finns det redan ett Microsoft Kinect-system som korrekt kan identifiera människors aktiviteter baserat på observation av deras rörelser. Om sådan teknik införlivades i en robot, kan det uppmana dig att tugga med din mun öppna - även om det sannolikt kan vara att hjälpa dig att lyfta ett tungt föremål.

I forskningsprojektet användes Kinects RGBD-kamera (Röd, Grön, Blå, Djup) för att observera fyra personer som utför 12 olika aktiviteter i fem olika inställningar - kontor, kök, sovrum, badrum och vardagsrum. Aktiviteterna innefattade saker som att borsta tänder, laga mat, skriva på whiteboard, arbeta på en dator och dricksvatten. Uppgifterna sprang genom en algoritm, där aktiviteter uppdelades i mer hanterbara delaktiviteter, känd som en hierarkisk Markov-modell för entropi. Det står i huvudsak att om en person ses att göra A, B, C och D, så är E antagligen vad de gör. Om systemet först hade sett personen utföra en träningsuppsättning av aktiviteterna, kunde den känna igen dessa aktiviteter med 84, 3 procent noggrannhet "i fältet." Om det inte hade sett personen innan kunde han hantera 64, 2 procent noggrannhet.

Personliga assistentrobotar som är utrustade med ett sådant system kan använda det i hemvårdssituationer, kontrollera att personer i sin vård dricker tillräckligt med vatten, borstar tänderna regelbundet, tar sina piller och så vidare. Beroende på robotens förmågor, om det såg att personen hade svårt att göra något, kunde det även gå in och hjälpa.

I experimenten kunde systemet undvika att kastas av icke-relaterade gärningar blandade med aktiviteterna, och det tycktes inte vara viktigt om personen som tittade på den var kvar eller högerhänt. Cornell-forskarna erkände emellertid att alla deras ämnen utförde sig i det öppna, och var inte säker på hur bra systemet skulle fungera om föremål blockerade en del av sitt syn. De föreslog också att det skulle fungera bättre om systemet skulle kunna lära känna vissa nyckelobjekt (tandborstar, gafflar, etc.) som är kontextuella för vissa aktiviteter.

Källa: I PROGRAMMER

Några av de aktiviteter som Kinect-aktiverat system kunde identifiera (Bild: Cornell University)

Några av de aktiviteter som Kinect-aktiverat system kunde identifiera (Bild: Cornell University)