Intelihensiyang artipisyal

Mula sa Wikipediang Tagalog, ang malayang ensiklopedya
Tumalon sa: nabigasyon, hanapin

Ang intelihensiyang artipisyal o katalinuhang artipisyal (Ingles: artificial intelligence o AI) ang katalinuhan ng mga makina at sangay ng agham pangkompyuter na naglalayong lumikha nito. Nagmula ang salita bilang isang paksa ng Kumperensiya sa Dartmouth noong 1956 ni John McCarthy.[1] Inilarawan ito ni McCarthy bilang isang agham at inhinyeriya ng paggawa ng intelihenteng mga makina.[2]

Mga problemang nilulutas[baguhin | baguhin ang batayan]

"Maaari bang ang isang makina ay kumilos ng intelihente?" ang tanong na isa pa ring bukas na problema at maraming mga mananaliksik ang nagtatangkang lumikha ng ganoong makina. Ang pangkalahatang problema ng paggaya (o paglikha) ng katalinuhan ay nahahati sa bilang ng mga spesipikong sangay na problema. Ang mga ito ay binubuo ng mga partikular na katangian o kakayahang ninanais ng mga mananaliksik ng AI na ipamalas ng isang sistemang intelihente. Ang mga sumusunod na mga katangian ang nakatanggap ng labis na pansin sa kommunidad ng AI.

Deduksiyon, pangangatwiran at paglutas ng problema[baguhin | baguhin ang batayan]

Ang mga unang mananaliksik ng AI ay lumikha ng mga algoritmo na gumagaya sa sunod sunod na hakbang ng pangangatwiran na ginagamit ng mga tao upang lutasin ang mga puzzle at gumawa ng mga deduksiyong lohikal. Sa huling bahagi ng 1980s at '90s, ang mga mananaliksik ng AI ay lumikha ng paglutas sa mga hindi tiyak at hindi kumpletong impormasyon na gumagamit ng mga konseptong hango sa probabilidad at ekonomika. Para sa mga mahihirap na problema, karamihan ng mga algoritmong ito ay nangangailangan ng napakalaking mga komputasyonal na mapagkukunan dahil sa ang karamihan ay nakakaranas "kombinatoryal na pagsabog" (combinatorial explosion): ang halaga ng memorya o panahon na iginugugol ng kompyuter upang lutasin ang isang problema ay tumataas kapag ang isang sukat ng isang problema ay lumagpas na sa isang itinakdang sukat. Ang paghahanap ng mga mas epektibong algoritmo na makakalutas sa ganitong problema ay isang mataas na prioridad sa pananaliksik AI. Ang tao ay lumulutas ng karamihan sa kanilang ccccccchhhhhhhhhaaaaaaaattttt bbbbbbbiiiiiiiittttteeee mga problema gamit ang mga mabilis, intuitibong desisyon imbes na sa sunod sunod na hakbang na deduksiyong modelo na nilikha sa unang yugto ng pananaliksik AI. Ang AI ay nakasulong sa panggagaya ng ganitong uri ng "sub-simbolkong" paglutas ng problema: ang modelong kinatawang ahente ay nagbibigay diin sa kahalagahan ng mga kakayahang sensorimotor hanggang sa mas mataas na pangangatwiran; Ang pananaliksik neural net ay nagtatangka upang gayahin ang istraktura sa loob ng utak ng mga tao at hayop na nagbibigay sa mga kakayahang ito.

Pagkakatawan ng kaalaman[baguhin | baguhin ang batayan]

Ang pagkakatawan ng kaalaman at pag-iinhinyerya ng kaalaman ay sentral sa pananaliksik AI. Marami sa mga problema ng makina na inaasahang malutas ay nangangailangan ng malawak na kaalaman tungkol sa mundo. Kabilang sa mga bagay ikatawan ng AI ay: mga bagay, mga katangian, mga kategorya at mga relasyon sa pagitan ng mga bagay; mga sitwasyon, mga pangyayari, mga estado at panahon; mga sanhi at mga epekto; kaalaman tungkol sa kaalaman (kung ano alam ko tungkol sa kung ano alam ng iba); at maraming iba pang hindi sinasaliksik na sangay. Ang isang representasyon ng "kung ano ang umiiral" ay isang ontolohiya (paghiram ng isang salita mula sa tradisyonal na pilosopiya), kung saan ang pinaka-pangkalahatan ay tinatawag na mataas na mga ontolohiya. Ang ilan sa pinakamahirap na mga problema sa representasyon ng kaalaman ay:

Default na pangangatwiran at ang problema ng kwalipikasyon[baguhin | baguhin ang batayan]

Marami sa mga bagay na alam ng mga tao ay nasa anyong "gumaganang mga palagay". Halimbawa, kung ang isang ibon ay pumasok sa isang usapan, ang mga karaniwang larawang naiisip ng mga taong nag uusap ay isang bagay na kasinglaki ng kamao, umaawit, at lumilipad. Hindi lahat ng mga bagay na ito ay totoo sa lahat ng mga ibon. Ang problemang ito ay tinawag ni John McCarthy noong 1969 na kwalipikasyon ng problema: para sa anumang mga batas ng sentido komon na nais ikatawan ng mga mananaliksik ng AI, meron malaking bilang ng mga esksepsiyon. Halos lahat ay hindi lamang totoo o hindi sa paraang pagkakatawan ng abstraktong lohika. Ang pananaliksik AI ay naghanap ng ilang mga solusyon sa problemang ito.

Ang lawak ng kaalamang sentido komon[baguhin | baguhin ang batayan]

Ang bilang ng mga atomikong katotohanan na alam ng isang karaniwang tao ay astronomikal (sobrang taas na bilang). Ang mga proyekto na nagtatangkang lumikha ng base (koleksiyon ng mga data) sa kaalaman ng sentido komon (halimbawa, Cyc) ay nangangailangan ng napakalaking paggawa sa pag-iinhinyeryanng ontolohikal - dapat ito ay binubuo, sa pamamagitan ng kamay ang mga komplikadong konsepto ng isa isa. Ang isang pangunahing layunin ay upang maintindihan ng kompyuter ang sapat na mga konsepto sa pamamagitan ng pagbabasa mula sa mga pinagkukunan tulad ng internet, at samakatuwid ay magagawang idagdag sa kanyang sariling ontolohiya.

Ang subsimbolikong anyo ng ilang mga kaalamang sentido komon[baguhin | baguhin ang batayan]

Karamihan sa alam ng mga tao ay hindi maaaring ikatawan bilang mga "katotohanan" o "pangungusap" na maaaring ihayag ng berbal. Halimbawa, ang isang dalubhasa ng chess ay umiiwas sa isang partikular na posisyon ng chess dahil ito "ay masyadong nakalantad" o ang isang kritiko ng sining ay maaaring tumingin ng isang beses sa isang estatwa at matatanto agad nito na ito ay isang peke. Ito ang mga kutob o kakayahan na kinakatawan sa utak na walang kamalayan at subsimbolikal. Ang kaalaman tulad nito ay nagbibigay alam, sumusuporta at nagbibigay ng isang konteksto para sa simboliko at kaalaman na pangkamalayan. Tulad ng kaugnay na problema ng mga subsimbolikong pangangatwiran, ang intelihensiyang komputasyonal ay nagbibigay ng mga paraan upang kumatawan ng ganitong uri ng kaalaman.

Pagpaplano[baguhin | baguhin ang batayan]

Ang isang intelihenteng ahente ay dapat may kakayahang magtakda ng mga layunin at makamit ang mga ito. Kailangan nito ang isang paraan upang maisalarawan ang hinaharap (dapat itong magkaroon ng representasyon ng estado ng mundo at magkaroon ng kakayahang matukoy kung paanong ang kanilang mga aksiyon ay mababago ito) at magkaroon ng kakayahan na hanapin ang pinakamabuting utilidad (o "halaga") ng mga magagamit na pagpipilian.

Sa mga klasikal na mga problema ng pagpaplano, ang ahente ay maaaring magpalagay na ito lamang ang tanging bagay na gumagalaw sa mundo at tumiyak kung ano ang mga kahihinatnan ng mga aksiyong gagawin nito. Gayunpaman, kung ito ay hindi totoo, dapat nitong paulit ulit na tignan kung ang mundo ay tumutugma sa mga prediksiyon at dapat nitong baguhin ang plano kung ito ay kinakailangan, na nagaatas sa isang ahente na mangatwiran sa mga sitwasyon na walang katiyakan. Ang isang pagpaplano ng maraming ahente ay gumagamit ng kooperasyon at kumpetisyon ng maraming mga ahente upang makamit ang isang ibinigay na layunin. Ang isang lumilitaw na pag-aasal tulad nito ay gumagamit ng ebolusyonaryong algoritmo at intelihensiya ng kuyog.

Pagkatuto[baguhin | baguhin ang batayan]

Ang pagkatuto ng makina (machine learning) ay sentral sa pananaliksik AI mula pa sa simula. Noong 1956, sa orihinal na tag-init na kumperensiya ng Dartmouth, ang mananaliksik na si Ray Solomonoff ay sumulat ng isang ulat tungkol sa "di pinapatnubayang probabalistikong pagkatuto ng makina". Ang Hindi pinapatnubayang pagkatuto (unsupervised learning) ay ang kakayahan upang mahanap ang mga paterno sa isang daloy na input. Ang pinapatnubayang pagkatuto (supervised learning) ay kinabibilangan ng klasipikasyon at regresyong numerikal. Ang klasipikasyon ay ginagamit upang matukoy kung anong kategorya ang isang bagay ay nabibilang, pagkatapos makita ang isang bilang ng mga halimbawa mula sa ilang mga kategorya. Ang regresyong analisis ay kumukuha ng isang hanay ng mga numerikal na input/output ng mga halimbawa at nagtatangkang tuklasin ang isang patuloy na punsiyon na lilikha ng mga output mula sa mga input. Sa pagpapapalakas na pagkatuto (reinforcement learning), ang ahente ay ginagantimpalaan ayon sa mabuting tugon nito at pinaparusahan sa mga maling tugon nito. Ang mga ito ay maaaring suriin ayon sa mga tuntunin ng teoriya ng desisyon, gamit ang mga konseptong tulad ng utilidad. Ang matematikal na pagsusuri ng algoritmo ng pagkatuto ng makina at ang kanilang pagganap ay isang sangay ng teoretikal na agham pangkompyuter na kilala bilang komputasyonal na teorya ng pagkatuto.

Natural na pagpoproseso ng wika[baguhin | baguhin ang batayan]

Ang natural na pagpoproseso ng wika ay nagbibigay sa makina ng kakayahan upang basahin at maunawaan ang mga wika na sinasalita ng mga tao. Ang maraming mga mananaliksik ng AI ay umaasa na ang isang sapat at makapangyarihang sistema ng natural na pagpoproseso ng wika ay magkaroon ng kakayahang magkamit ng kaalaman sa kanyang sarili, sa pamamagitan ng pagbabasa ng mga umiiral na teksto na makukuha sa internet. Ilan sa mga direktang aplikasyon ng natural pagpoproseso ng wika ay ang pagkuha ng impormasyon (o text mining) at pagsasalin ng wika.

Mosyon at manipulasyon[baguhin | baguhin ang batayan]

Ang larangang ng robotika ay malapit na kaugnay ng AI. Ang intelihensiya ay kinakailangan upang ang mga robot ay magkaroon ng kakayahan gawin ang mga gawain tulad ng manipulasyon ng mga bagay at nabigasyon, sa mga sub-problema ng lokalisasyon (alam kung saan ito), pag-mamapa (pag-aaral kung ano ang nasa paligid ito) at pagpaplano ng paggalaw (pagtukoy kung paano makarating sa isang lugar).

Persepsiyon[baguhin | baguhin ang batayan]

Ang persepsiyon ng makina ay ang kakayahan gumamit ng input mula sa mga sensor (tulad ng mga kamera, mikropono, sonar at iba pa) upang matukoy ang mga aspeto ng mundo. Ang paningin ng kompyuter ay ang kakayahan upang masuri ang input na biswal. Ang ilang sa mga subproblema nito ay pagsasalita, pagkilala ng mukha, at pagkilala ng bagay.

Mga kasangkapan[baguhin | baguhin ang batayan]

Sa loob ng 50 taon ng pananaliksik, ang AI ay nakabuo ng malaking bilang ng mga kasangkapan upang malutas ang mga pinakamahirap na mga problema sa agham pangkompyter. Ang ilan sa mga pangkalahatang pamamaraan na ito ay ang sumusunod:

Paghahanap at optimisasyon[baguhin | baguhin ang batayan]

Maraming mga problema sa AI ay malulutas sa teoriya sa pamamagitan ng matalinong paghahanap ng maraming mga posibleng solusyon: Ang pangangatwiran ay maaaring paliitin sa pamamagitan ng pagsasagawa ng isang paghahanap. Halimbawa, ang lohikal na papapatunay ay maaaring maunawaan bilang paghahanap para sa isang landas mula sa premisa hanggang sa mga konklusyon kung saan ang bawat hakbang ay paglalapat ng batas inperensiya. Ang algoritmong pagpapaplano ay paghahanap sa mga puno ng layunin at pang-ilalim na layunin upang mahanap ang landas ng layuning pakay na isang prosesong tinatawag na "means-ends analysis". Sa algoritmong robotiko ang paggalaw ng mga braso at paghawak ng mga bagay ng isang robot ay gumagamit ng lokal na paghahanap sa konpigurasyong espasyo. Maraming algoritmo ng pagkatuto ay gumagamit ng mga algoritmong paghahanap batay sa optimisasyon.

Ang simpleng lubusang paghahanap ay bihirang sapat para sa mga pinaka-tunay na mga problema ng mundo: ang espasyo ng paghahanap (ang bilang ng mga lugar upang maghanap) ay mabilis na lumalaki sa astronomikal na bilang. Ang resulta nito ay isang paghahanap na masyadong mabagal o hindi natatapos. Ang solusyon para sa maraming mga problema ay paggamit ng mga "heuristika" upang alisin ang mga pagpipilian na hindi hahantong sa layunin (na tinatawag na "pagtatabas ng hinahanap na puno"). Ang heuristika ay nagbibigay sa programa ng isang "pinakamahusay na paghula" kung saang landas sa puno (tree) matatagpuan ang solusyon.

Isang kakaibang uri ng paghahanap ang tumanyag noong 1990s, batay sa matematikal na teoriya ng optimisasyon. Para sa maraming mga problema, ang paghahanap ay posibleng simulan ng ilang anyo ng paghuhula at pagkatapos ay pagpipino ng paghuhula ng paunti unti hanggang sa wala ng pagpipinong maaaring gawin. Ang mga algoritmong ito ay maaaring ilarawan tulad ng pag akyat sa isang bundok: ang paghahanap ay maaaring simulan sa kahit anong lokasyon sa paanan ng bundok at pagkatapos ay umakyat ng unti unti hanggang sa maabot ang tuktok ng bundok. Ang iba pang mga algoritmong optimisasyon ay simuladong annealing (ginayang pag- iinit at paglalamig ng isang metal), sinag paghahanap at randomang optimisasyon (walang direksiyong optimisasyon).

Ang pagkukwentang ebolusyonaryo ay gumagamit ng isang anyo ng optimisasyong paghahanap. Halimbawa, maaaring sila ay magsimula sa isang populasyon ng mga organismo (ang mga hula) at pagkatapos ay payagan silang mag-mutado at muli itong pagsamahin, na piliin lamang ang magtatagumpay na mabuhay sa bawat henerasyon (pagpipino ng mga hula). Ang mga anyo ng pagkukuwentang ebolusyonaryo ay kinabibilangan ng algoritmong intelihensiyang kuyog (tulad ng mga kolonya ng langgam) at mga ebolusyonaryong algoritmo (tulad ng algoritmong henetiko at pagpoprogramang henetiko).

Lohika[baguhin | baguhin ang batayan]

Ang lohika ay ginagamit para ikatawan ang kaalaman at problemang paglutas, ngunit ito ay maaaring gamitin sa iba pang mga problema. Halimbawa, ang algoritmong satplan ay gumagamit ng lohika para sa pagpaplano at pasaklaw na lohikang pagpoprograma na isang paraan ng pagkatuto.

Maraming iba't ibang anyo ng lohika ang ginagamit sa AI. Ang proposisyonal o sentensiyal na lohika ang lohika ng mga pahayag na maaaring totoo o hindi. Ang unang order na lohika ay gumagamit din ng mga pambilang at panguri na maaaring maghayag ng mga katotohanan ng mga bagay, ang kanilang mga katangian at mga ugnayan sa isa't isa. Ang lohikang hindi malinaw (fuzzy logic) ay isang bersiyon ng unang order na lohika na pumapayag na ang katotohanan ng isang pahayag ay maaaring ikatawan bilang halaga sa pagitan ng 0 at 1 imbis na totoo at hindi totoo lamang. Ito ay maaaring gamitin sa isang hindi tiyak na pangangatwiran at ito'y malawak na ginagamit sa modernong industriyal at mga sistemang kontrol ng mga produktong pang konsumer. Ang subhektibong lohika ay nagmomodelo ng kawalang katiyakan sa kakaiba at tahasang paraan kesa sa lohikang hindi malinaw: isang ibinigay na dalawang opinyon ay sumasapat sa paniniwala + kawalang-paniwala + aalinlangan = 1 sa loob ng isang distribusyong Beta. Sa pamamagitan ng paraang ito, ang kamangmangan ay maaaring matukoy mula sa mga probabilistikong pahayag na nililikha ng isang ahente ng may mataas na kumpiyansa.

Ang lohikang default, lohikang hindi monotoniko at sirkumpskripsiyon ay mga anyo ng lohika na dinisenyo upang makatulong sa pangangatwiran ng default na pangangatwiran at ang problema ng kwalipikasyon. Maraming ekstensiyon ng lohika ay dinisenyo upang humawak ng mga spesipikong sinasakupang ng kaalaman gaya ng: lohikong paglalarawan; sitwasyong kalkulo, kalkulo ng pangyayari, kalkulo na fluent (para sa pagkakatawan ng mga kaganapan at oras); kalkulong pananahilan; paniniwalang kalkulo ; at modal na lohika.

Mga pamamaraang probabilistiko sa hindi tiyak na pangagatwiran[baguhin | baguhin ang batayan]

Maraming mga problema sa AI (sa pangangatwiran, pagpaplano, pagkatuto, persepsiyon at robotiko) ay nag-aatas sa isang ahente na kumilos sa hindi kumpleto o hindi tiyak na impormasyon. Ang mga mananaliksik ng AI ay lumikha ng ilang makapangyarihang kasangkapan upang lutasin ang mga problemang ito sa pamamagitan ng paggamit ng mga pamamaraan mula sa teoriya ng probabilidad at ekonomika.

Ang Bayesian network ay isang pangkalahatang kasangkapan na maaaring gamitin sa isang malaking bilang ng mga problema: pangangatwiran (gamit ang algoritmong Bayesian na inperensiya), pagkatuto (gamit ang algoritmong inaasahan-maksimisasyon) (expected-maximization), pagpaplano (gamit ang desisyon na network) at persepsiyon (gamit ang mga dinamikong Bayesian network). Ang mga algoritmong probabilistiko ay maaari ring gamitin para sa pagsasala (filtering), prediksiyon, pagkikinis at paghahanap ng mga paliwanag para sa mga daloy ng mga data na tumutulong sa mga sistemang persepsiyon upang suriin ang mga proseso na nangyari sa paglipas ng panahon gaya ng nakatagong modelong Markov (hidden markov model) o panalang Kalman (Kalman filter).

Ang isang mahalagang konsepto mula sa agham ng ekonomika ang "utilidad": isang sukatan kung gaano kahalaga ang isang bagay sa isang intelihenteng ahente. Ang mga tiyak na kasangkapang matematikal ay nilikha upang suriin kung paanong ang isang ahente ay gumagawa ng mga pagpipilian at mga plano gamit ang teoriya ng desisyon, analisis ng desisyon, at teorya ng impormasyong halaga. Kabilang sa mga kasangkapang ito ang mga modelo tulad ng mga prosesong desisyong Markov, dinamiko na desisyong network, teorya ng laro at mekanismong disenyo.

Mga taga-uri at mga paraang estadistikal na pagkatuto[baguhin | baguhin ang batayan]

Ang mga aplikasyong AI ay maaaring mahati sa dalawang uri: taga-uri/classifier (halimbawa "kung ang isang bagay ay makintab, sa gayun ito ay isang brilyante") at mga kontroler (halimbawa "kung ang isang bagay ay makintab, sa gayun ito ay pupulutin"). Gayunpaman, ang mga kontroler ay nag-uuri ng mga kondisyon bago maghinuha ng mga aksiyon, samakatuwid ang mga anyong klasipikasyon ay sentral na bahagi ng maraming mga sistema ng AI. Ang mga taga-uri ay mga punsiyon na gumagamit ng pagtutugma ng mga paterno (pattern) upang matukoy ang isang pinakamalapit na katugma. Maaari nilang itong isaayos ayon sa mga halimbawa na nagdudulot sa kanilang maging aakit-akit para sa paggamit sa AI. Ang mga halimbawa na ito ay kilala bilang mga obserbasyon o mga pattern. Sa isang pinapatnubayang pagkatuto (supervised learning) ang bawat paterno ay nabibilang sa isang tiyak na paunang-natukoy na klase. Ang isang klase ay maaaring maunawaan bilang isang desisyon na nililikha. Lahat ng mga obserbasyon na pinagsama kasama ang kanilang tatak na klase ay kilala bilang isang hanay ng data. Kapag ang isang bagong obserbasyon ay natanggap, ang obserbasyon ito ay inuuri base sa nakaraang karanasan.

Ang mga taga-uri ay maaaring sanayin sa pamamagitan ng iba't ibang paraan gaya ng maraming mga estatistikal at pamamaraan ng pagkatuto ng makina. Ang pinaka-malawak na ginagamit na taga-uri ay network na neural, mga pamamaraang kernel tulad ng suportang bektor na makina (support vector machine), k-pinakamalapit na kapitbahay (k-nearest neighbor), modelong pinaghalong Gaussian (mixed Gaussian model), taga-uri na walang muwang na Bayes (naive bayes classifier), at desisyong puno (decision tree). Ang pagganap ng mga taga-uri ay kinumpara sa hanay ng iba't ibang mga gawain. Ang pagganap ng taga-uri ay depende sa mga katangian ng data na uuriin. Walang iisang taga-uri na pinakamahusay na gumagana sa lahat ng mga ibinigay na problema. Ito ay tinutukoy din bilang teorema na "walang libreng tanghalian". Ang pagtukoy ng isang angkop na taga-uri para sa isang naibigay na problema ay itinuturing pa ring isang sining kesa agham.

Neural na network[baguhin | baguhin ang batayan]

Ang pag-aaral ng mga artipisyal na neural network ay nagsimula sa dekada bago ang sangay na pananaliksik sa AI ay itinatag, sa mga ginawa ni Walter Pitts at Warren McCullough. Ang iba pang pang mahalagang mga naunang mananaliksik ay sina Frank Rosenblatt, na nagimbento ng perceptron at Paul Werbos na lumikha ng algoritmong backpropagation.

Ang mga pangunahing kategorya ng mga network ay asikliko (acyclic) o feedforward na neural network (kung saan ang mga signal ay ipinapasa lamang sa isa direksiyon) at pabalik-balik na neural network (na gumagamit ng feedback). Kabilang sa mga pinaka-popular na feedforward network ang perceptron, ang pang maramihang patong na perceptron at radyal na batayan network. Sa pabalik-balik na network, ang pinaka-tanyag ay ang Hopfield net, ang isang anyo ng attractor network, na unang inilarawan ni John Hopfield noong 1982. Ang neural network ay maaaring ilapat sa problema ng intelihenteng kontrol (para sa robotika) o pagkatuto, gamit ang teknikong pagkatutong Hebbian at kompetetibong pagkatuto.

Ang hierarkikal na temporal na memorya ay isang paraan na nagmomodelo ng ilan sa mga istraktural at algoritmikong katangian ng neocortex.

Teorya ng kontrol[baguhin | baguhin ang batayan]

Ang teoriya ng kontrol ay supling ng sibernetika at maraming mahahalagang paglalapatan lalo na sa robotika.

Mga lenggwaheng pang intelehensiyang artipisyal[baguhin | baguhin ang batayan]

Ang mga mananaliksik ng AI ay lumikha ng ilang partikular na mga lenggawheng ginagamit sa AI kabilang ang LISP at Prolog.

Pilosopiya[baguhin | baguhin ang batayan]

Ang pilosopiya ng intelehensiyang artipisyal sa pag-aangkin na magawang muling malikha ang mga kakayahan ng isip ng tao ay parehong hamon at inspirasyon para sa pilosopiya. May mga limitasyon ba sa kung gaanong katalino ang makina? Ang intelihensiya ba ng tao at intelihensiya ng makina ay pareho? Ang makina ba ay maaaring magkaroon ng isipan at kamalayan? Ang ilan sa mga pinaka-maimpluwensiya (influential) na sagot sa mga tanong na ito ay ang sumusunod: Ang magalang na konbensiyon ng siyentipiko ng kompyuter na si Alan Turing: "Hindi natin kailangan pagpasyahan kung ang isang makina ay "makapag-iisip"; kailangan lang nating pagpasyahan kung ang isang makina ay makapag-aasal na kasing talino ng isang tao". Ang pakikitungong ito sa mga pilosopikal na problemang kaugnay ng intelihensiyang artipisyal ang bumubuo ng basehan ng pagsubok na Turing na iminungkahi sa papel na "Computing machinery and intelligence" (Mind, Oktubre 1950). Ang pagsubok na Turing ang naging batayan sa agham pangkompyuter upang matukoy kung ang isang makina ay nagpapamalas ng katalinuhan. Ayon sa pagsubok na Turing, ang isang makina ay maituturing na matalino kung hindi matukoy ng isang taong nagtatanong dito kung ang kanyang tinatanong ay isang makina o isang tao. Sa papel ding ito, iminungkahi ni Turing na imbes gumawa ng mga programang gumagaya sa pag-iisip ng isang matandang tao, mas mabuting gumawa ng mas simpleng makina na gumagaya sa isip ng isang bata at ito'y isailalim sa pagkatuto. Ang Ang hipotesis na sistemang pisikal na simbolo nina Newell at Simon: "Ang isang sistemang pisikal na simbolo ay may kinakailangan at sapat na mga paraan ng pangkalahatang intelihenteng pag-aasal." Nangatwiran sina Newell at Simon na ang mga intelihensiya ay binubuo ng mga pormal na operasyon sa mga simbolo. Salungat na ikinatwiran ni Hubert Dreyfus na ang kadulabhasaan ng tao ay nakabatay sa walang kamalayang kutob kesa sa manipulasyon ng kamalayang simbolo at sa pagkakaroon ng "pakiramdam" para sa sitwasyon kesa sa hayagang simbolikong kaalaman. Ayon sa teorema ng pagiging hindi kompleto ni Gödel, "Ang isang sistemang pormal (gaya ng isang programa ng kompyuter) ay hindi makapagpapatunay ng lahat ng mga totoong pangungusap". Ang teorema ni Gödel ay inaangkin ng ilan na naglilimita sa kung ano ang magagawa ng mga makina. Ang malakas na AI hipotesis ni John Searle: "Ang angkop na pinogramang kompyuter na may mga tamang input at output ay sa gayong paraan magkakaroon ng isipan sa eksaktong parehong kahulugan sa mga tao". Kinontra ni John Searle ang asersiyong ito sa kanyang argumentong kwartong Tsino na humihiling sa ating tumingin sa loob ng kompyuter at subukang hanapin kung saan ang "isipan" ay maaari. Ang argumentong artipisyal na utak: "Ang utak ay magagaya". Sina Hans Moravec, Ray Kurzweill at iba pa ay nangatwirang teknolohikal na magagawang kopyahin ng direkta ang utak sa hardwer at sopwer at ang gayong simulasyon ay likas na katulad ng sa orihinal.

Mga sanggunian[baguhin | baguhin ang batayan]

  1. Bagaman may ilang kontrobersiya sa puntong ito (tingnan ang Crevier 1993, p. 50), sinabi ni John McCarthy na naisip niya ang termino sa loob ng isang pakikipanayam sa c|net. (Tingnan ang Getting Machines to Think Like Us.)
  2. Tingnan ang John McCarthy, What is Artificial Intelligence?

Mga sanggunian[baguhin | baguhin ang batayan]

mga aklat[baguhin | baguhin ang batayan]

iba pang sanggunian[baguhin | baguhin ang batayan]