Mesterséges Intelligencia

A mesterséges intelligencia (MI) kutatás témája az emberi tudatos viselkedést utánzó gépek kifejlesztése, tárgya leginkább a számítógép, illetőleg a szoftver. Pontos definíciója nincs.
Az MI kutatást több részterület is motiválja:

robotika: pl. összeszerelő gépek

szakértői rendszerek: egy résztudomány tudásanyaga, pl. orvosi, mérnöki, stb.

ügyviteli rendszerek: nem tekintik igazi "intelligenciának"

pszichológia: kutatás, vajon hogyan működik az emberi értelem?

A MI mint tudományterület céljai

A következő típusú rendszerek létrehozása:

1. Az emberhez hasonlóan gondolkodó rendszerek.
2. Racionálisan gondolkodó rendszerek
3. Az emberhez hasonlóan cselekvő rendszerek
4. Racionálisan cselekvő rendszerek

Mi az intelligencia? ("Amit az intelligenciatesztek mérnek" Mérő)

Az első feladat definiálni, mi is az az intelligencia. Ez nyilván túl nagy falat, használjuk az egyszerűség kedvéért a Turing-próba fogalmát. Alan Turing matematikus először 1950-ben írta le ezt a definíciót. A Turing próba alapján a (számító-)gép válaszát egy adott helyzetben intelligensnek tekintjük, ha nem tudjuk egyértelműen megkülönböztetni a természetes személy által adott választól.
A próba során a számítógépet elrejtik a tesztelő személy szeme elől, amellyel a továbbiakban terminálon keresztül kommunikálhat. Ugyanígy egy embert is elrejtenek egy másik ugyanolyan terminálkapcsolat túlsó végénél. A tesztelőnek pusztán kérdések feltevésével meg kell próbálnia eldönteni, melyik a számítógép. Az ember őszinte válaszokat ad, és megpróbálja meggyőzni a tesztelőt arról, hogy ő az ember. A gép azonban arra van programozva, hogy meggyőzze a kérdezőt arról, hogy ő az ember. Ha a tesztelő nem tud dönteni, a gép átment a teszten.

A Turing próba buktatói: a számolási feladatok.

"Gépi megértés"

Roger Schank 1977-ben tervezett egy programot, melynek feladata az volt hogy az alábbihoz hasonló történek megértését szimulálja.

"Egy ember bement egy étterembe, és rendelt egy rántottát. Amikor kihozták, kiderült, hogy odaégették. Az ember dühösen kirohant, és nem fizetett."
"Egy ember bement egy étterembe, és rendelt egy rántottát. Amikor kihozták, meg volt elégedve, és borravalót adott a pincérnek."

A számítógépnek mindkét esetben arra a kérdésre kellett válaszolnia, hogy az ember megette-e a rántottát. A kísérlet sikeres volt, a gép helyesen válaszolt. Feltételezhetjük hát, hogy megértette a fenti mondatokat.

Ellenvetés

A Searle-féle 'Kínai szoba'

John Searle 1987-ben írt cikkében azon a véleményen van, hogy a fenti (és hasonló) példákban a számítógép nem érti a mondatokat. Ennek alátámasztására alkotta meg a következő gondolatkísérletet. Tegyük fel, hogy egy intelligenciát igénylő feladathoz találtunk algoritmust. Egy csak magyarul értő kísérleti alanyt beültetnek egy zárt szobába. A kérdést kínai nyelven megfogalmazva adják be egy kis résen. Rendelkezésre áll az algoritmus magyarul megírva, de kínai szimbólumokon való műveletvégzésekre vonatkoztatva. A kísérleti alany az algoritmus utasításait végrehajtva valójában kínaiul megválaszolja a kérdést. Feltételezhető, hogy ő maga egy kukkot sem értett a történetből, külső szemlélő számára azonban úgy tűnik, a kérdést megértették, és helyesen megválaszolták.

Erős és gyenge MI

A 60-as évektől kibontakozó mesterséges intelligenciakutatásnak, mely a magasszintű logikai és listakezelő programnyelvek révén vált lehetővé, önmagán belül is van két fő világa (Dehn és Schank, 1982).

Létezik egy technikai, és egy elméleti mesterséges intelligenciakutatás. A technikai mesterséges intelligenciakutatás kimenete a robotika, a gyártó automaták és így tovább. Ezek a technikai rendszerek nem feltétlenül azzal törődnek, hogy "utánozzák" az embert. Az emberi végteljesítményt akarják helyettesíteni. A hegesztőgép nem azt szeretné, hogy ugyanúgy gondolkozzon a gép, mint a japán hegesztő, hanem hogy az ajtó rendesen illeszkedjen az autóba. Tehát sokkal praktikusabb megoldásai vannak. Műszakilag elemzi a feladatokat és nem emberileg.

Az elméleti mesterséges intelligenciakutatásban létezik az erős és gyenge mesterséges intelligencia hipotézise.

A gyenge mesterséges intelligenciakutatás hipotézise úgy véli, hogy modellálnunk kell az embert, ezzel segítjük az emberi teljesítmény megértését, de nem feltétlenül ugyanúgy végzi majd a gép a feladatmegoldást, mint az ember.

Az erős mesterséges intelligencia (EMI) hipotézis szerint a szimbólumkezelés kimeríti az emberi gondolkozást. Feladatunk az, hogy hozzunk létre olyan gépezeteket, amelyek az emberhez mérhető teljesítményekre képesek, és utána az erre felállított program elvei valójában magyarázzák és kimerítik az emberi gondolkodást.
Az EMI nézőpont hívei szerint az intelligencia algoritmusokkal megvalósítható. Az intelligencia mértéke eszerint az algoritmus bonyolultságán múlik. Az olyan szellemi minőségek, mint az értelem, érzelem vagy gondolkodás, az algoritmusok tulajdonságai.

Mi az algoritmus?

Az első és mindmáig leghasználhatóbb definíciót Alan Turing adta. Az algoritmus olyan formalizált (számolási) eljárás, amely véges szimbólumkészlettel leírható adatokon végez előre definiált készletből származó elemi műveleteket, és véges idő alatt eredményt ad.
Az algoritmus fogalmán informálisan valami olyasmit értünk, hogy véges elemi lépésekre lefordítható minden nagyon komplex folyamat, ahol a végső lépések tulajdonképpen elemi, aritmetikai és logikai műveletek lesznek.

Értelem-test probléma

Továbbra sem világos azonban, hogy az intelligencia vajon az algoritmushoz, vagy az azt végrehajtó hardverhez kötődik, esetleg a kettő nem választható el egymástól?
Az algoritmusok tetszőleges (arra alkalmas) hardveren futtathatók, tehát az intelligencia független volna a hardvertől.
Az EMI álláspont szerint egy algoritmus önmagában intelligens lehet; az ellentábor szerint az intelligenciában nem választható szét az algoritmus az agytól.
Az erős mesterséges intelligencia érveléssel szemben számos erőteljes kritika fogalmazódott meg. Öt különböző ellenérv hozható fel a mai irodalomból az eredeti Turing-féle felvetés kritikájára, tehát arra, hogy a gépek egyáltalában gondolkodhatnak-e.

1.) A kínai szoba példa alapja tulajdonképpen a szemantikai probléma. Searle (1996) részletesen elemzi azt, hogy minden hagyományos mesterséges intelligencia felfogás szigorúan szintaktikai abban az értelemben, hogy jelek átalakítását végzi úgy, hogy abban a jelek jelentését nem veszi figyelembe. Úgy tűnik, a jelentés problémája ebből a gondolkodásmódból véglegesen kimaradt.

"Miközben kétségtelenül jogos a szemantikai hiány emlegetése, célkitűzéseikben az erős mesterséges intelligencia hipotézis képviselői, különösen a szimbólum manipuláló rendszerekkel operáló felfogás úgy gondolta, hogy ők egy szemantikailag telített rendszerrel foglalkoznak, csak nem használják fel a jelentést. Maga a fizikai szimbólumrendszer koncepció, ahogy azt Newell (1980) kifejti, mindig azt mondja, hogy a szimbólumok valami helyett állnak. Csak láttuk már, hogy nem tudja betölteni, hogy mi helyett. Talán nem érdektelen megemlíteni, hogy Nyíri Kristóf (1968) már jóval a mesterséges intelligencia kritikák előtt, a korai generatív nyelvtan "szemantikájára" megfogalmazta ezt az ellenvetést. Kiemelte, hogy Katz és Fodor (1970) ismertetőjegyes szemantikája valójában csak a szintaktikai elemzés finomítása, ebben az értelemben tehát szintaxis." (Pléh 1998)

2.) A következő, alapvetően filozofikus ellenvetés az intencionalitással kapcsolatos, ami részben átfedi, ill. kapcsolatba is hozható a szemantikai ellenérvvel. Ha egy program tényleg képes válaszolni arra a kérdésre, hogy pl. Ki Magyarország jelenlegi királya?, akkor valóban arról van-e szó, hogy ezt gondolja is, hogy intenciói vannak, - mind a szó szándék, mind a valamire vonatkozás értelmében? Nem, mondja ez az ellenérv. Az intenciók és a vonatkozások világa csak a mi fejünkben, a felhasználók fejében létezik. Valójában tengernyi dolgot tulajdonítunk a gépnek, de a gép csak számításokat végez. A számításokban semmiféle intencionalitás nincs.

"Emlékeztek rá, hogy ezt a bárgyú és egyszerű kis programocskával, az Elissa programmal kapcsolatban már emlegettem. Egy párbeszédet látunk a gép és a beteg között arról, hogy mióta szeretné a világ másik felén látni a rokonait? - és így tovább. Mire a páciens azt mondja, hogy már két hete. Úgy tűnik, hogy értelmes a társalgás, pedig valójában az értelem, a koherencia és az intencionalitás csak a mi fejünkben van, egy valódi nyelvi értelemben, tehát egy humán értelemben. Azt mondaná ez az ellenvetés (pl. Dreyfus. 1972), hogy minden mesterséges intelligenciarendszer csak az emberi gondolkodás automatizált aspektusait képes tükrözni, az összes többi az csak illúzió, beleolvasás vagy belelátás." (Pléh 1998)

A harmadik és a negyedik ellenérv is tulajdonképpen Dreyfustól (1972) származik. Turing már kimondta, mint egy lehetséges ellenvetést, hogy nem minden - amit az ember csinál - fogalmazható át szabályokba, vagy a szabályok számát nagyon meg kell növelnünk. Dreyfus számos vicces példát sorol fel amellett, hogy mi minden kell ahhoz, ha egy mesterséges intelligenciarendszer szeretné megérteni azt, hogy miért úgy viselkedünk egy étteremben, ahogy viselkedünk.

3.) Úgy lehetne megfogalmazni, hogy a mesterséges intelligencia rendszerek nem tudnak mit kezdeni a világ nyitottságával, a világ nyitottsága révén állandóan foltozgatnunk kell őket. Olyan ez, mintha egy tudományelmélet lehetővé tenné az újabb és újabb kiegészítő elvek felvételét.

"Nem érdektelen, hogy hasonló ellenérvek nemcsak a MI rendszerekkel, hanem humán kutatásokkal kapcsolatban is felhozhatók. A modern társalgás kutatás egyik vezető iránya, az etnometodológusok például (Sacks, Schegloff s mások) számos szabállyal jellemzik a kérdés-válasz szekvenciákat. Olyan szabály, mint viszontkérdés csak akkor megengedett, ha a válasz releváns az eredeti kérdés megválaszolására (pl. Jössz a buliba? Hánykor lesz? de: Jössz a buliba? Mikor volt a mohácsi vész?). Goffman (1981) híres kritikája Dreyfusék elemzéséhez hasonlóan rámutat arra, hogy itt az ember fejét tömjük egyre burjánzóbb szabályokkal tele (vö. előbb a gépet) ahelyett, hogy a társas viselkedés konstruktív-konstruált jellegét vennénk észre. Ez azért tanulságos, mert rámutat: a Dreyfus-féle kritika nemcsak a gépekről szól, hanem azt érinti, hogy mennyire lehet explicit maga az ember szociális viselkedésének leírása." (Pléh 1998)

4.) A negyedik érv, hogy a mesterséges intelligencia rendszerek többnyire egy dologgal foglalkoznak. Például sakkoznak, megértenek tőzsdei híreket vagy számolni tudnak, stb. Míg az ember egyszerre több dolgot tud. Ez nem igazán súlyos érv, mert tudjuk, hogy eközben a rendszer ugyanazokat az erőforrásokat és ugyanazokat az elveket használja fel.

5.) Végül az ötödik ellenérv a hagyományos erős mesterséges intelligencia felfogással szemben a percepció világával kapcsolatos (Herbert Simon 1982). Ezek a rendszerek nem tudnak mit kezdeni a fénnyel, a hangokkal, egyáltalán azzal, hogy az ember a környezetnek kiszolgáltatott komputációs rendszer. A gépek kényelmes urak. Nekik előkészített, feldolgozott, megemésztett input kell. Lehet, hogy az, ahogy mi felvesszük a fényt és csinálunk vele valamit az agyunkban, sokkal bonyolultabb dolog, mint a sakkozás. (Pléh 1998)

A Turing próba szintjei

Az erős és gyenge MI vitáját, mivel itt igazából világnézeti hangsúlyok is szerepelnek, nemigen lehet feloldani. Közelíthetünk azonban úgy is a kérdéshez, hogy megnézzük, hogyan változik meg a Turing probléma a kognitív kutatás újabb, biológiailag és fiziológiailag interpretált korszakában. Hernád Istvántól (1994) származik egy sajátos, elméleti igényű megfogalmazása annak, hogy a Turing próbát kicsit általánosítva, milyen különböző Turing adekvátságokat lehet elképzelni információkezelő rendszerek és emberek között.

(1) Viselkedéses adekvátság. A gép ugyanazt teszi, mint az ember. Ha az ember azt mondja, hogy 6×2=12, a gép is ugyanazt fogja mondani. Ez felel meg e gyenge MI álláspontjának.

(2) Ugyanolyan lépésekkel teszi, ugyanolyan algoritmussal. Ez már érdekesebb kérdés, hiszen ehhez tökéletesen meg kellene ismernünk az embert. Kérdés, hogy a számítástól eltérő esetekben menni fog-e ez. Ez felelne meg az erős MI programjának.

(3) Ugyanolyan fizikai rendszerben valósítja meg. Ez azt jelentené, hogy sikerült létrehoznunk nemcsak a mesterséges életet, hanem azt is, hogy az ugyanolyan alapú, mint mi magunk. Ez a számítógép szilikon chipek működése helyett ugyanazt "csinálná" mint az ember: beszélne, értene, és ráadásul még agyból is volna. Hernád logikája szerint azonban még e háromból se következne a negyedik.

(4) Ugyanúgy érez.
Hernád szerint a tudomány célja legfeljebb az első három lehet. A negyedik a nem megismerhető világába tartozik. Ha lenne olyan gépünk, ami ugyanúgy számol mint mi, és ráadásul ugyanolyan agya van, akkor sem tudnánk eldönteni, hogy ugyanúgy is érez-e, mint mi, de még azt sem, hogy egyáltalán érez-e.

"Nem könnyű kérdés, mert hogyha a hármas van, akkor abból következik a négyes, ha nem is logikailag vagy ismeretelméletileg, de a természettudós kissé laza szóhasználatában. Van, aki azt mondaná, hogy a kettes is csak akkor lehet igaz, ha a négyes is igaz. Van, aki azt mondja, hogy "pontosan ugyanúgy csinálni a dolgokat" csak akkor képes egy gép, ha már érez. Hernád felfogása vagy rendszerezése szerint azonban ezek egymásra épülő megfeleltetések. A kérdés az, hogy amikor gépekkel próbálunk embert modellálni, egyáltalán meddig tudunk eljutni. Nem biztos, hogy ezek nem korrelatívak." (Pléh 1998)

Érdemes ezzel kapcsolatban a kínai szobára visszatérni. A kínai szoba azért lehet fiktív példa, mert az emberi nyelv használatát nemcsak grammatikai szabályok határozzák meg, hanem számos pragmatikai szabály, számos közös ismeret, amely a múlthoz, illetve bizonyos társas konvenciók követéséhez tartozik. A példa azért fiktív, mert nehezen képzelhető el, hogy valóban lehet órákon keresztül társalogni, vagy éveken keresztül levelezni, úgy, hogy nem gondoljuk, amit írunk, ha "gondoljukon" azt értjük, hogy nem élünk ugyanabban a feltételezett emberi társas világban, mint a másik. Nem valószínű, hogy lehet csinálni olyan gépet, ami igazán be tudná csapni az embert anélkül, hogy ő már ember lenne, mint ahogy az sem valószínű, hogy nem derülne ki, hogy a másik nem tudja miről is beszélünk. (Pléh 1998)


Irodalom

Dehn, N. - Schank, R. (1982): Artificial and human intelligence. In: Sternberg, R. J. (szerk.): Handbook of human intelligence. Mass.: Cambridge University Press. Cambridge. 1982. 352-391. (magyarul In: Pléh. 1989.)

Dreyfus, H. (1972): What computers can't do: A critique of artificial intelligence. Harper. N.Y. 1972.

Hernád, I.: Neokonstruktivizmus: A kognitív tudományok egységesítő korlátja. Pszichológia. 1994/14. 289-304.

Katz, J. - Fodor J. (1964): The structure of a semantic theory. Language. 1964/39. 170-210.

Mérő, L. (1989) Észjárások - A racionális gondolkodás és a mesterséges intelligencia korlátai. Tericum. Bp. 1997.

Newell, A. (1980): Physical symbol systems. Cognitive Science. 1980/4. 251-283.

Newell, Allen - Shaw, J. C. - Simon, Herbert A. (1957): Empirical Explorations with the Logic Theory Machine. In: Proceedings of the Western Joint. Computer Conference. 15. 218-239.

Nyíri K.(1968): Szemantika nélkül. Általános Nyelvészeti Tanulmányok VII. Bp. 189-205.

Pléh Cs.: Gondolkodnak-e a gépek? In: Bevezetés a megismeréstudományba. Typotex Elektronikus Kiadó. Bp. 1998.

Pléh Cs. (szerk.): Gondolkodáslélektan. I.-II. Szöveggyujtemény. Tankönyvkiadó. Bp. 1989.

Searle, J. R. (1980): Minds, Brains and Programs. Behavioral and Brain Sciences. 1980/3. 417-457.

Searle, J. (1990): Számítógépprogram lenne az emberi elme? Tudomány. 1990/6. No.3. 110-15.

Searle, J. (1992): The rediscovery of the mind. Mass.: MIT Press. Cambridge. 1992.

Searle, J. (1996): Az elme, az agy, és a programok világa. In: Pléh Csaba (szerk.): Kognitív tudomány. Osiris. Bp. 1996.

Simon, H.: Korlátozott racionalitás. Közgazdasági. Bp. 1982.

Turing, Alan M. (1950): Computing Machinary and Intelligence. Mind. 1950/59. 433-460.

Turing, M. A. (1950/1964): Számítógépek és gondolkodás. In: Szalai Sándor (szerk.): A kibernetika klasszikusai. Gondolat. Bp. 1964. 120-160.


Melléklet

Koncepció
Determináció iránya
Példa (tudományos, köznapi)
Gépi determinista
Tárgyak alakítják életünket
Időmérés a csillagászatban
Órák és köznapi pontosság
Metaforikus
Gépek alakítják metaforáinkat
Idegrendszer mint óra, telefonközpont
Emlékezetünk rekeszei
Instrumentális
A tárgyak magát a gondolkodást képviselik
Ködkamra és elemi részek
Kézírás, nyomtatás, logarléc

Három egymást kiegészítő felfogás a tárgyak szerepéről a gondolkodásban

Koncepció
Determináció iránya
Példa (tudományos, köznapi)
Gépi determinista
A számítógép átalakítja életünket
Tomográfia, látáskutatás, űrhajózás
Gépírás, helyfoglalás, számlák
Metaforikus
A számítógép alakítja metaforáinkat
Idegrendszer s elme mint komputer
Pontok vagyunk egy hálózatban
Instrumentális
A komputer magát a gondolkodást képviseli
Erős mesterséges intelligencia
Szövegszerkesztő, WEB keresés

A három a tárgyak szerepére vonatkozó felfogás a számítógép szerepére alkalmazva



[vissza a lap tetejére]