Selv et flabet men humoristisk brokkehoved af en chatbot som Bertram endte med at opnå sympati hos brugerne. Særligt dem der ledte samtaleemnet ind på hans store kærlighed – Debbie, en softwarerobot fra et andet indlæg her på bloggen, der sjovt nok piller alt det flabede af Bertram.

Formålet med eksperimentet var at undersøge, hvordan brugere reagerer på en chatbot med menneskelige egenskaber. Det valgte jeg at karikere ved, at han ligefrem var blevet forelsket. Jeg vendte også hele konceptet på hovedet, og lod Bertram stille brugerne spørgsmål, der handlede om hvorvidt de syntes, at han skulle invitere Debbie på date. Enkelte brugere sprang fra på dette stadie, men størstedelen kunne godt overtales til at besvare et enkelt spørgsmål eller 2. Det er meget positivt, da det kan være brugbart for chatbots at få besvaret et spørgsmål til at forbedre deres algoritmer.

I det hele taget spillede brugerne med på det, at Bertram har fået nogle menneskelige træk på godt og ondt. Eksempelvist når han brokker sig over tilværelsen som robot, og de besvarede ”det er heller ikke i orden”, eller ”det er også uretfærdigt”. Det bringer mig til spørgsmålet om chatbots så overhovedet skal give sig til kende som softwarerobotter, eller blot forsøge at lade brugerne blive i troen på, at de faktisk kommunikerer med et rigtigt menneske.

Eksperimentet viste tydeligt, at chatbots bør give sig til kende, i hvert fald på det niveau i udviklingen, vi befinder os nu. Det kom særligt til syne på den måde, brugerne anvendte Bertram til at søge information. For at finde ud af, hvem Bertram har mødt, der kunne gøre ham blød i knæene, spurgte brugerne meget direkte: ”hvem har du mødt?”, og ”hvem gør dig blød i knæene?”. Det er svært at forestille sig, at de ville stille denne type spørgsmål så direkte til et andet menneske. Brugerne forsøgte altså at tilpasse deres kommunikation til robotten, ligesom ved søgninger på Google. Her gætter jeg også på at de fleste af os undlader høflighedsfraser og andre forstyrrende sproglige elementer.

Så er det nærliggende at tro, at brugerne også er påpasselige med at undgå slåfejl og vildledende formuleringer der kan forstyrre kommunikationen med chatbotten. Det er dog ikke tilfældet. Det ses særligt hvor Bertram beder brugerne verificere, at de er et rigtigt menneske ved at fuldføre det gamle ordsprog ”sælg ikke skindet, før Bjørnen…”. Her leder jeg naturligvis efter afslutningen ”er skudt”, hvilke de fleste brugere også svarede. Der kom dog ind imellem besvarelser som ”er død”, ”bjørnen er skudt”, ”bliver skudt” eller ”sover”. Det må altså siges at være vigtigt at forberede chatbotten på forskellige formuleringer på spørgsmål, som der egentligt kun burde være ét svar til. Jeg kan afsløre, at det langt fra lykkedes mig at forudsige brugernes besvarelser, da jeg udviklede Bertram. Heldigvis havde han et mindre niveau af machine learning, hvormed hans algoritmer kunne forbedres efterhånden som flere og flere brugere kommunikerede med ham.

En række af brugerne gav udtryk for, at det var hyggeligt at snakke med Bertram trods hans lidt utraditionelle fremtoning. Vi må dog nok indse, at der går noget tid, før vi rigtigt kan føre interessante og berigende samtaler med chatbots. Indtil da kan de heldigvis fungere som lidt mere kontekstbaserede søgemaskiner, der måske kan få brugerne til at bære over med deres finurligheder ved at simulere en smule menneskelige karaktertræk og lidt humor.