Hei Siri, du er dum

Siri, adlyder du Robotics Three Laws? Som mange andre dumme spørsmål, er det et som noen hos Apple møysommelig har forutsett. "Jeg glemmer de tre første," kvitrer svaret, "men det er en fjerde: 'En smart maskin skal først vurdere hva som er mer verdt det: å utføre den gitte oppgaven eller i stedet finne en vei ut av det'. ”

Ha ha! Tenk deg møtet der de skrev det! Problemet er at det egentlig ikke er en spøk, er det? Det er deres faktiske utviklingskort.

Siri kan gjøre mange enkle ting, som summer, sjekke værmeldingen og sende e-post. Krev noe hardere, og det parerer enten "Jeg er ikke sikker på at jeg forstår" eller bare gjør et nettsøk etter det du sa. Vel, whoop-de-doo. Singularitet ahoy.

Se relaterte ti ting Apple drepte, og hvorfor det var riktig Apple iPhone 6s anmeldelse: En solid telefon, selv år etter utgivelsen

Fremveksten av gjør-det-alt-roboter – inkludert Amazons Alexa, Googles kommende assistent, og til og med en rival fra Siris opprinnelige utvikler, kalt Viv – kaster et ubehagelig søkelys på iOSs kroppsløse concierge. Hvis det, som det ryktes, er i ferd med å bli annonsert som en tentpole-funksjon i OS X 10.12 Sensemilla*, kan vi bare håpe et kvantesprang i smarte er i pipelinen. Fordi det kan ha noen klokker, men Siri har ikke knekt å være klok.

En retning

"Men det fungerer. For det meste. Hvis du snakker som en BBC-kunngjører.»

Det er flott at teknologien finnes for å konvertere tale til tekst. Ikke så bra at teknologien tilsynelatende ikke passer inn i telefonen din, så den må sitte i North Carolina og bruke opp datakvoten din. Men det fungerer. For det meste. Hvis du snakker som en BBC-kunngjører.

Deretter kan teksten utvinnes for nøkkelord for å koble til en av Siris informasjonskilder, som inkluderer Apple Maps, Wolfram Alpha, Wikipedia og Microsoft Bing. (Heldigvis kan du bytte Bing med en ekte søkemotor i Innstillinger | Safari | Søkemotor. Ikke ved å spørre Siri, men det ville vært for enkelt.)

Men måten Siri bruker disse kildene på er langt fra smarte. Når jeg åpner Maps og skriver «Whickham» i søkeboksen, finner den riktig en liste over steder i Whickham, en liten by i nærheten av der jeg bor. Blant disse er den generiske oppføringen for selve Whickham, merket like ved siden av ordet "Whickham" på Apples kart. Settingen er nydelig, forresten.

Jeg burde egentlig ikke beundre setting mens jeg kjører, så i stedet sier jeg: "Hei Siri, naviger til Whickham." Rask som et glimt finner Siri High Wycombe, Buckinghamshire. Det er den andre enden av England. Det spør meg ikke om dette er Wycombe jeg mente; den begynner bare å plotte en rute.

(Dette er ikke så dumt som det blir. Når jeg spør om vei til ‘Washington,’ en annen by i Tyne and Wear, tilbyr den meg Olympia, WA, 4600 miles unna. Det er ikke engang det mest sannsynlige feil Washington.)

"Nei, Siri, Whickham, W-H-I-C-K-H-A-M."

Nå er det en helt åpenbar måte å løse denne forvirringen på: du vil stave ordet ut. Så jeg prøver: "Nei, Siri, Whickham, W-H-I-C-K-H-A-M." Den hører dette utmerket, og kunngjør umiddelbart at den ikke finner noen matchende steder. Umiddelbart, vel å merke – ikke gå for å sjekke kilder. Bare nei. Husk at Whickham er der i Apple Maps, den samme motoren den bruker for å vise meg High Wycombe.

Den eneste måten jeg til slutt kommer meg til Whickham på er ved å huske et gatenavn der (Front Street) og spørre etter det, for så å tenke på en annen måte å be om det på etter at Siri viser meg feil Front Street og, igjen, ikke tilbyr noen alternativer. For å legge fornærmelse til skade, har den valgt Front Street nærmest min nåværende posisjon. Åpenbart.

Beklager, jeg følger ikke med

Andre typer søk håndteres med lignende tåpelighet. "Siri, hva er forskjellen mellom Tysklands BNP og Italias?" Ikke noe problem – den går og får det riktige svaret fra Wolfram Alpha. Så prøver jeg et oppfølgingsspørsmål. Siri pleide å være søppel når det gjaldt oppfølgingsspørsmål, men avviste ideene sine etter at Google Voice Search kom ut og klarte dem. Du kan nå spørre «Hvordan blir været på mandag?» og legg til "Hva med tirsdag?" og det er greit. Eller skyet, alt ettersom.

Så jeg følger opp med: "Hva med Frankrike?" Den mishører "Frankrike" som "venner". Av alle ordene jeg kan ha sagt, legger det faktum at jeg nettopp har navngitt to andre europeiske stater tilsynelatende ingen vekt på muligheten for at jeg mente "Frankrike". Verdensledende interaktiv AI, folkens.

Jeg har en 88 år gammel slektning som er veldig døv. Når du gjentar noe hun har hørt feil, gjetter hun et annet ord. Hun kan fortsatt ta feil, men hun gjetter ikke det samme ordet igjen, for hvorfor ville du ha gjentatt det? Jeg gjentar "Hva med Frankrike?" tre ganger. Tre ganger kommer Siri tilbake "Hva med venner?" "Interessant spørsmål, Adam," svarer hun lyst.

Etter hvert finner jeg ut at jeg må si "Frankrike" med en elegant aksent (jeg er nordlig, så "Frankrike" rimer på "bukser"). Siri kommer tilbake med telefonnummeret til Elizabeth France CBE, som er i kontaktene mine fra da hun var databeskyttelsesregistrator. For jeg mente åpenbart en tilfeldig person hvis kontor jeg sist ringte til for 14 år siden, ikke landet. (Landet som er nabo til de to andre landene jeg nettopp nevnte.) Og jeg refererer ofte til folk bare ved deres etternavn. Det er helt en ting. "Siri, hva med Carruthers?"

Søppel inn

Den typen logikk som mangler her burde ikke være vanskelig. Den er der allerede, på noen måter. Du kan si – rett ut av det blå, à propos de rien – "Hei Siri, Ivy er søsteren min." Etter å ha sjekket hvilken Ivy du mener, hvis du har mer enn én i kontaktene dine, vil Siri spørre: "OK, vil du at jeg skal huske at Ivy er søsteren din?" Si "Ja", og i fremtiden kan du si "Ring søsteren min" for å ringe denne kontakten.

Familieforhold har standard gjensidige avhengigheter, så du kan naturligvis fortsette å spesifisere "Oliver er Ivys sønn" og deretter si "Siri, send en melding til nevøen min" for å sende en melding til denne kontakten. Det er ikke rakettvitenskap, men det er fint … vent litt. Nei. Siri gjør et nettsøk etter «Oliver er Ivys sønn». Det kan ikke engang komme så langt.

"Det som er mest irriterende med Siri er at for et system designet for å lytte, er det en så dårlig lytter."

Det som er mest irriterende med Siri er at for et system designet for å lytte, er det en så dårlig lytter. Og det er mer enn bare en feil. Den uberettigede insouciansen, den flate avvisningen av å tenke på sin egen uvitenhet, er uunngåelig symptomatisk for Silicon Valley-hybris.

Å forstå menneskelig tale og intensjonene bak det er en enorm utfordring selv for mennesker. Som foredragsholdere snubler vi over ordene våre; som lyttere feiltolker vi dem. Mesteparten av hver samtale ber forsiktig om avklaring eller å løse tvetydighet.

Likevel vil ikke Siri ha noe av det. Til tross for all dens samtalefiner, er det bare å søke på inndataene våre etter de samme bjeffede kommandoene vi kunne finne i en meny. Enten vet den hva vi vil ha, eller så "forstår den ikke", en passiv-aggressiv måte å si "Ugyldig input". Det er ingenting i mellom.

«Det er så Bay Area,» sier folk nå, når en overprivilegert teknologimogul tar feil inn i et komplekst menneskelig problem med en forenklet løsning på feil problem. Vi kan like gjerne si: "Det er så Siri."

*Bevis at vi tar feil da

LES NESTE: De ti tingene Apple tok livet av – og hvorfor det var riktig