Social og blød robotik, supermenneskelig talegenkendelse, mere – denne uge i kunstig intelligens 08-26-16

Kildeknude: 841275

Social og blød robotik, supermenneskelig talegenkendelse, mere - denne uge i kunstig intelligens 08-26-16

1 – Folk foretrækker udtryksfulde, kommunikative robotter frem for effektive og effektive

En nyligt offentliggjort undersøgelse fra University of Bristol og University College London viser, at folk måske foretrækker robotter, der er i stand til at vise menneskelignende følelser frem for dem, der er hurtigere og mere effektive til at udføre opgaver. Forskere undersøgte, hvordan mennesker interagerede med Bert2, en humanoid robotassistent, mens de lavede en omelet. Da robotten lavede en fejl og viste et trist udtryk, reagerede brugerne godt på dens undskyldning. Da Bert2 spurgte, om den kunne have et job som køkkenassistent, var de fleste deltagere tøvende eller viste ubehag, før de svarede, hvilket forskerne formidlet som en "forudsætning" for ikke at få robotten til at føle nød. Kandidatstuderende og forsker Adriana Hamacher sagde,

"Menneskelignende egenskaber, såsom fortrydelse, kan være kraftfulde værktøjer til at modvirke utilfredshed, men vi skal med omhu identificere, hvilke specifikke egenskaber vi ønsker at fokusere på og kopiere. Hvis der ikke er nogen grundregler, kan vi ende med robotter med forskellige personligheder, ligesom de mennesker, der designer dem."

Forskningen præsenteres på IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN) fra 26. til 31. august i New York City.

(Læs hele artiklen vedr University of Bristol News)

2 – Den første autonome, helt bløde robot

Et team af forskere fra Harvard har skabt den første autonome, bløde robot med tilnavnet 'Oktober', ved hjælp af 3D-print, maskinteknik og mikrofluidikteknologier. Selvom robotten ikke er fuldt funktionsdygtig, baner produktionen vejen for mere komplekse robotdesigns, der er kompatible i både krops- og strømkildekomponenter, som indtil nu har været en udfordring inden for blød robotteknologi. Ved at erstatte stive batterier og printkort brugte forskerne et mikrofluidisk logisk kredsløb (brintoverilte-drevet) til at puste op og drive bots blækspruttelignende arme. En næste generations octobot ville være i stand til at kravle, svømme og interagere med sit miljø. Designet er hurtigt at fremstille, og forskerholdet håber at kunne inspirere andre forskerhold, der arbejder med avanceret robotfremstilling.

(Læs hele artiklen om Harvard gazette og forskningsartikel kl Natur)

3 – Microsoft-opkøb af Genee for at fremskynde intelligente oplevelser i Office 365

Microsoft annoncerede mandag sin hensigt om at købe den AI-drevne planlægningstjeneste Genee, skabt i 2014 af medstifterne Ben Cheung og Charles Lee. Cheung og Lee, som planlægger at slutte sig til Microsoft-teamet, annoncerede på deres egen blog (som ser ud til at være blevet fjernet fra september 2017), at Genee-tjenesten lukker ned den 1. september 2016, men at de ser frem til at fortsætte at "bygge fantastiske næste generation af intelligente oplevelser" hos Microsoft. Genee blev designet som en planlægningstjeneste, der bruger naturlig sprogbehandling og optimerede beslutningstagningsalgoritmer, hvilket giver oplevelsen af ​​at interagere med en menneskelignende personlig assistent.

(Læs hele pressemeddelelsen på Microsoft Blog)

4 - nuTonomy lancerer verdens første offentlige prøveversion af Selvkørende bilservice og Ride-Hailing App

nuTonomy, en Singapore-baseret teknologivirksomhed, der udvikler banebrydende software til selvkørende køretøjer, gennemførte torsdag den første offentlige prøveversion af sine selvkørende køretøjer i Singapores en-nordlige forretningsdistrikt. Forsøg vil fortsætte løbende, efterhånden som nuTonomy-ingeniører kører i de selvkørende taxaer for at observere systemets ydeevne og om nødvendigt overtage kontrollen. nuTonomy, som blev grundlagt af MIT-kandidaterne Karl Iagnemma, PhD, og ​​Emilio Frazzoli, PhD, har siden april i år testet sine autonome køretøjer i Singapore, Storbritannien og Michigan i samarbejde med forskellige bilproducenter (Jaguar Land Rover er et eksempel). Selskabets mål er at frigive en selvkørende flåde inden 2018.

(Fuld pressemeddelelse om nuTonomy er ikke længere tilgængelig for vores september 2017-opdatering af denne artikel)

5 – Smartphone-talegenkendelse kan skrive tekstbeskeder tre gange hurtigere end menneskelig skrivning

En ny undersøgelse fra Stanford University, udført i samarbejde med Baidu Inc. og University of Washington, viser, at talegenkendelsesteknologier nu i gennemsnit er tre gange hurtigere end mennesker – og mere præcise. Talegenkendelse har gjort betydelige fremskridt i de sidste par år på grund af øget brug af dyb læring og træning af neurale netværk på omfattende datamængder. Baidu's Deep Speech 2 cloud-baserede talegenkendelsessoftware blev brugt til undersøgelsen, selvom holdet fastslog, at andre sammenlignelige talegenkendelsesalgoritmer sandsynligvis vil fungere på lignende niveauer. James Landay, professor ved Stanford University og medforfatter kommenterede,

"Du kunne forestille dig en grænseflade, hvor du bruger tale til at starte, og så skifter den til en grafisk grænseflade, som du kan røre ved og styre med din finger."

"Tale er 3x hurtigere end at skrive for engelsk og mandarin tekstindtastning på mobile enheder" er offentliggjort online på arxiv.org.

(Læs hele artiklen vedr Stanford University News)

Kilde: https://emerj.com/social-soft-robotics-super-human-speech-recognition-week-artificial-intelligence-08-26-16/

Tidsstempel:

Mere fra Emerj