ELIZA

Skjermbilde av ELIZA
ELIZA, her i Emacs

ELIZA er et dataprogram utviklet av Joseph Weizenbaum i 1966 , som skulle vise mulighetene for kommunikasjon mellom et menneske og en datamaskin via naturlig språk .

Weizenbaum valgte navnet ELIZA basert på stykket Pygmalion av George Bernard Shaw . Programmet kan simulere ulike samtalepartnere ved hjelp av skript . Det har blitt kjent for den overfladiske simuleringen av en psykoterapeut som bruker ikke-direktiverte metoder for klientsentrert psykoterapi ifølge Carl Rogers .

Weizenbaum skrev programmet i MAD - SLIP for en IBM 7094 som brukte CTSS tidsdelingssystemet fra den Massachusetts Institute of Technology .

ELIZA kan sees på som en tidlig implementering av Turing-testen . Det ville imidlertid ikke ha gått siden en bruker kan finne ut ganske enkelt at han kommuniserer med en maskin.

funksjonalitet

I en enkel versjon bruker ELIZA en synonymordbok , dvs. en strukturert ordbok. Den angitte setningen blir søkt for å se om den inneholder et ord som er tilgjengelig i synonymordboken og deretter basert på dette ordet for synonymer , men mest for generelle termer . Programmet inneholder også en samling setninger om forskjellige emner, ofte spørsmål eller forespørsler om å fortsette. Følgende par spørsmål og svar kan brukes som et eksempel:

Bruker: "Jeg har et problem med faren min."
ELIZA: "Fortell mer om familien din!"

I dette tilfellet har programmet implementert tildelingen av far til sin generiske begrepsfamilie som definert i synonymordboken og valgt en setning som gjelder familien . Denne enkle operasjonen viser begrensningen av programmet, som brukeren ikke forstår i det hele tatt. Så søkeordprinsippet fører også til følgende tilsynelatende "dialog":

Bruker: "Krig er far til alle ting."
ELIZA: "Fortell mer om familien din!"

Hvis programmet ikke finner et ord til å begynne med, svarer det med generelle tilbakeslagssetninger som f.eks B.

“Jeg har ikke forstått det ennå, kan du forklare det for meg?” Eller
"Jeg forstår ingenting om det, la oss snakke om et annet tema."

Reaksjoner

Weizenbaum begrunnet valget av psykoterapeut som en simulert samtalepartner med det faktum at en slik samtalepartner har lov til ikke å måtte vise noen kunnskap om verden uten å miste sin troverdighet. I artikkelen bruker Weizenbaum et eksempel for å illustrere dette: Hvis den menneskelige samtalepartneren uttaler setningen "Jeg gikk på en båt" og datamaskinen svarer med "Fortell meg noe om båter", vil ikke personen anta at samtalepartneren har ingen kjennskap til båter.

Testpersoners kommunikasjonsoppførsel overfor programmet samsvarte med den mot en menneskelig samtalepartner. Åpenbart spilte det ikke så stor rolle for dem om personen som svarte den andre enden av linjen faktisk var et menneske eller et dataprogram. Alt som gjaldt var at svarene og spørsmålene virket "menneskelige". Dette er den såkalte Eliza-effekten, som brukes i mange chatbots i dag.

I stor grad var forsøkspersonene i eksperimentene til og med overbevist om at “samtalepartneren” hadde en reell forståelse av problemene deres. Selv om de ble konfrontert med det faktum at dataprogrammet de hadde "snakket med" konverterte enkle utsagn til spørsmål basert på noen få enkle regler og absolutt uten "intelligens", "fornuft", "empati" osv., de nektet ofte å akseptere dette.

Weizenbaum var sjokkert over reaksjonene på programmet hans, spesielt det faktum at praktiserende psykoterapeuter trodde seriøst at det ville føre til en automatisert form for psykoterapi . Ikke minst på grunn av disse erfaringene utviklet han seg til å bli en samfunnskritiker . Denne Weizenbaum-utviklingen er gjenstand for en dokumentar med tittelen Plug & Pray , som ble utgitt i 2010.

Videre utvikling

I videreutviklede versjoner kan en setning også brytes ned grammatisk og analyseres for å f.eks. B. å gjenkjenne negasjoner eller å kunne skille spørsmål fra utsagn. I mer komplekse og effektive videreutviklinger blir tesaurus vanligvis erstattet av en ontologi . Dette betyr at mer komplekse avhengigheter kan behandles og samtalehistorikken kan håndteres. Det kan da ikke være nødvendig å lagre komplette setninger, siden svaret kan være sammensatt av flere setningsfragmenter og en setning kan varieres tilsvarende. Dette muliggjør svarvarianter som:

"Fortell meg mer om familien din"
"Fortell meg mer om hobbyen din"
"Fortell meg mer om jobben din"

Med videreutviklede systemer kan applikasjoner nå realiseres for skisserte fagområder, f.eks. B. en tidsplaninformasjon. Selv tiår etter den første utviklingen når et slikt system imidlertid raskt sine grenser. Tilnærminger til forståelse kan postuleres innenfor disse smale grensene , forutsatt at systemet gir et passende svar på et spørsmål. Imidlertid oppnår ikke slik videre utvikling en reell forståelse.

Google I / O-konferansen i mai 2018 ble en eksperimentell “digital assistent” presentert. B. kan reservere bord på restauranter eller avtaler hos frisøren automatisk.

Se også

litteratur

  • Joseph Weizenbaum: ELIZA - Et dataprogram for studiet av naturlig språkkommunikasjon mellom menneske og maskin . I: Kommunikasjon av ACM . 1. utgave. Juni 1966, ISSN  0001-0782 .
  • Joseph Weizenbaum: Kraften til datamaskiner og fornuftens impotens . 11. utgave. Suhrkamp Verlag, Frankfurt 2000, ISBN 3-518-27874-6 (første utgave: 1978).
  • Detlef Borchers: En misforståelse fyller 40 år . I: c't . Nei. 23 , 2006, ISSN  0724-8679 , s. 40 ff .
  • Stefan Höltgen, Marianna Baranovska (red.): Hei, jeg er Eliza. 50 år med samtaler med datamaskiner. 1. utgave. Projekt Verlag, Bochum 2018, ISBN 978-3-89733-467-0 (første utgave: 2018).

weblenker

Individuelle bevis

  1. Joseph Weizenbaum: Kraften til datamaskiner og fornuftens impotens .
  2. ^ Judith Malek-Mahdavi, Jens Schanze: Plug & Pray. Dokumentar med Joseph Weizenbaum om konsekvensene av ELIZA. Hentet 26. november 2014 .
  3. ^ Matthias Kremp: Google Duplex er skummelt bra. I: Spiegel online. Hentet 14. mai 2018 .