Accions

Diferència entre revisions de la pàgina «Intel·ligència artificial»

De Wikisofia

m (bot: - d'individus -cadascun dels quals no entén les operacions que realitza- s'assemblen + d'individus –cada un dels quals no entén les operacions que realitza– s'assemblen)
 
(11 revisions intermèdies per 2 usuaris que no es mostren)
Línia 1: Línia 1:
 
{{ConcepteWiki}}
 
{{ConcepteWiki}}
Com a disciplina autònoma, la intel·ligència artificial (IA) va sorgir en 1956 a partir del «Darmouth Summer Research Project on AI» organitzat per J. McCarthy, que va comptar amb la col·laboració de M. Minsky, H. Simon i A. Newell. Encara que existeixen diverses definicions d'intel·ligència artificial, l'enorme diversificació que ha vist aquesta disciplina des dels anys setanta fa difícil una definició precisa.
+
Com a disciplina autònoma, la intel·ligència artificial (IA) va sorgir en 1956 a partir del «Darmouth Summer Research Project on AI» organitzat per J. McCarthy, que va comptar amb la col·laboració de M. Minsky, H. Simon i A. Newell. Encara que existeixen diverses definicions d'intel·ligència artificial, l'enorme diversificació que ha vist aquesta disciplina des dels anys setanta del segle XX fa difícil una definició precisa.
  
 
[[File:minsky.gif|thumb|Marvin Minsky]]
 
[[File:minsky.gif|thumb|Marvin Minsky]]
Marvin Minsky, un dels primers i més importants investigadors en IA, defineix la seva disciplina com «la realització de sistemes informàtics amb un comportament que en l'ésser humà qualifiquem d'intel·ligent». Winston la va definir, en 1984, com «l'estudi de les idees que permeten als ordinadors ser intel·ligents», i Roger Penrose la concep com a «imitació per mitjà de màquines, normalment electròniques, de tantes activitats mentals com sigui possible, i potser arribar a millorar les capacitats humanes en aquests aspectes» <ref>Roger Penrose, ''La nueva mente del emperador,'' Mondadori, Madrid 1991, p. 33.</ref>  ([[Bibliografia:Referència bibliogràfica de Penrose|veure referència]]). No obstant això, s'ha objectat que sense una bona definició prèvia d'[[intel·ligència|intel·ligència]], qualsevol definició precisa d'intel·ligència artificial aquesta destinada al fracàs. Una altra objecció que es va plantejar en els seus inicis es basava en el fet que una [[màquina|màquina]] solament mostra la seva ''intel·ligència'' quan executa un programa, la qual cosa més que dir res en favor de la intel·ligència de la màquina ho diu en favor de la intel·ligència del seu programador.
+
Marvin Minsky, un dels primers i més importants investigadors en IA, defineix la seva disciplina com «la realització de sistemes informàtics amb un comportament que en l'ésser humà qualifiquem d'intel·ligent». Winston la va definir, en 1984, com «l'estudi de les idees que permeten als ordinadors ser intel·ligents», i Roger Penrose la concep com a «imitació per mitjà de màquines, normalment electròniques, de tantes activitats mentals com sigui possible, i potser arribar a millorar les capacitats humanes en aquests aspectes» <ref>Roger Penrose, ''La nueva mente del emperador,'' Mondadori, Madrid 1991, p. 33.</ref>  ([[Bibliografia:Referència bibliogràfica de Penrose|vegeu referència]]). No obstant això, s'ha objectat que sense una bona definició prèvia d'[[intel·ligència|intel·ligència]], qualsevol definició precisa d'intel·ligència artificial està destinada al fracàs. Una altra objecció que es va plantejar en els seus inicis es basava en el fet que una [[màquina|màquina]] solament mostra la seva ''intel·ligència'' quan executa un programa, la qual cosa més que dir res en favor de la intel·ligència de la màquina ho diu en favor de la intel·ligència del seu programador.
  
 
Però la IA, encara que és una ciència experimental, proposa tot un seguit de problemes filosòfics (què ha d'entendre's per intel·ligència, pensament, raonament, ment?), i els situa en un terreny nou, molt proper al de les [[ciències cognitives|ciències cognitives]] i als de la [[filosofia de la ment|filosofia de la ment]]. D'altra banda, els seus resultats, cada vegada més espectaculars, permeten un ampli debat sobre les nocions d'[[intencionalitat|intencionalitat]], intel·ligència, sentiments i, en general, de tots els conceptes involucrats en la noció del [[mental|mental]], alhora que fa reflexionar sobre una nova concepció del mecànic que ja no pot limitar-se a les tesis del [[mecanicisme|mecanicisme]] clàssic.
 
Però la IA, encara que és una ciència experimental, proposa tot un seguit de problemes filosòfics (què ha d'entendre's per intel·ligència, pensament, raonament, ment?), i els situa en un terreny nou, molt proper al de les [[ciències cognitives|ciències cognitives]] i als de la [[filosofia de la ment|filosofia de la ment]]. D'altra banda, els seus resultats, cada vegada més espectaculars, permeten un ampli debat sobre les nocions d'[[intencionalitat|intencionalitat]], intel·ligència, sentiments i, en general, de tots els conceptes involucrats en la noció del [[mental|mental]], alhora que fa reflexionar sobre una nova concepció del mecànic que ja no pot limitar-se a les tesis del [[mecanicisme|mecanicisme]] clàssic.
  
Els primers intents de rèplica de comportaments intel·ligents poden trobar-se en la construcció d'autòmats mecànics. No obstant això, els intents de la formalització del raonament i la definició del coneixement des del camp de l'[[epistemologia|epistemologia]] i la [[lògica|lògica]] matemàtica són antecedents més directes i crucials per al posterior desenvolupament de la intel·ligència artificial. Tal és el cas de les investigacions d'autors com: [[Autor:Ramon Llull|Llull]], [[Autor:Leibniz,_Gottfried_Wilhelm|Leibniz]], [[Autor:Descartes, René(Cartesius)|Descartes]], [[Autor:Hume, David|Hume]], [[Autor:Russell, Bertrand|Russell]], [[Autor:Hilbert, David|Hilbert]], [[Autor:Boole, Georg|Boole]], [[Autor:Turing, Alan Mathison|Turing]] i uns altres. La invenció dels ordinadors en els anys cinquanta del segle XX, amb la gran capacitat de càlcul i de tractament de símbols d'aquestes noves màquines, va conduir ràpidament a una reflexió sobre el seu límit computacional i lògic. Però, al costat de les prestacions dels ordinadors, en els orígens de la IA, estan la [[cibernètica|cibernètica]], els sistemes d'autorregulació de Norbert Wiener, la teoria computacional de von Neumann, la teoria de la informació de Shannon i Weaver, la neurobiologia i les [[ciències cognitives|ciències cognitives]].
+
Els primers intents de rèplica de comportaments intel·ligents poden trobar-se en la construcció d'autòmats mecànics. No obstant això, els intents de la formalització del raonament i la definició del coneixement des del camp de l'[[epistemologia|epistemologia]] i la [[lògica|lògica]] matemàtica són antecedents més directes i crucials per al posterior desenvolupament de la intel·ligència artificial. Tal és el cas de les investigacions d'autors com: [[Autor:Ramon Llull|Llull]], [[Autor:Leibniz,_Gottfried_Wilhelm|Leibniz]], [[Autor:Descartes, René(Cartesius)|Descartes]], [[Autor:Hume, David|Hume]], [[Autor:Russell, Bertrand|Russell]], [[Autor:Hilbert, David|Hilbert]], [[Autor:Boole, Georg|Boole]], [[Autor:Turing, Alan Mathison|Turing]] i uns altres. La invenció dels ordinadors en els anys cinquanta del segle XX, amb la gran capacitat de càlcul i de tractament de símbols d'aquestes noves màquines, va conduir ràpidament a una reflexió sobre el seu límit computacional i lògic. Però, al costat de les prestacions dels ordinadors, en els orígens de la IA, estan la [[cibernètica|cibernètica]], els sistemes d'autoregulació de Norbert Wiener, la teoria computacional de von Neumann, la teoria de la informació de Shannon i Weaver, la neurobiologia i les [[ciències cognitives|ciències cognitives]].
  
 
[[File:turing2.gif|thumb|Alan Turing]]
 
[[File:turing2.gif|thumb|Alan Turing]]
[[Autor:Turing, Alan Mathison|Alan Turing]] va ser un dels primers a formular explícitament un programa d'estudi que portaria a la intel·ligència artificial com a disciplina a la fi dels anys cinquanta. Turing va idear un «test» (el cèlebre [[test de Turing|test de Turing]]) per verificar l'eventual intel·ligència d'una màquina. Bàsicament, es tracta de verificar si un observador és capaç de distingir una màquina d'una persona, podent tan sols comunicar-se a través d'un teclat i una pantalla. Si la màquina aconsegueix despistar a l'observador, Turing argumenta que la podem considerar com a intel·ligent, encara que ell mateix –fervent defensor de la possibilitat de la IA–, assenyala que aquesta màquina encara estaria allunyada de l'ésser humà i mancaria d'[[intencionalitat|intencionalitat]].
+
[[Autor:Turing, Alan Mathison|Alan Turing]] va ser un dels primers a formular explícitament un programa d'estudi que portaria a la intel·ligència artificial com a disciplina a la fi dels anys cinquanta del segle XX. Turing va idear un «test» (el cèlebre [[test de Turing|test de Turing]]) per a verificar l'eventual intel·ligència d'una màquina. Bàsicament, es tracta de verificar si un observador és capaç de distingir una màquina d'una persona, podent tan sols comunicar-se a través d'un teclat i una pantalla. Si la màquina aconsegueix despistar a l'observador, Turing argumenta que la podem considerar com a intel·ligent, encara que ell mateix –fervent defensor de la possibilitat de la IA–, assenyala que aquesta màquina encara estaria allunyada de l'ésser humà i mancaria d'[[intencionalitat|intencionalitat]].
  
Superar aquest test a curt termini era impensable. Inicialment es va tractar de començar a crear programes d'ordinador capaços de simular aspectes molt reduïts de la intel·ligència, amb l'esperança de generalitzar, a partir d'aquests programes de baix nivell, sistemes cada vegada més intel·ligents. Així, en els anys cinquanta, Herbert Simon i Allan Newell van idear els primers programes capaços de demostrar certs teoremes de lògica proposats per [[Autor:Whitehead, Alfred North|Whitehead]] i [[Autor:Russell, Bertrand|Russell]] en ''Principia Mathematica''. És a dir, programes capaços de deduir, a partir d'axiomes bàsics i gràcies a les regles de transformació i recerca programades, teoremes complexos no definits al programa. Els supòsits teòrics d'aquests autors pertanyen a la tradició racionalista de la [[mathesis universalis|''mathesis'']]: consideren que la intel·ligència està basada en la manipulació de representacions que poden descompondre's en elements bàsics primitius o simples lligats per regles sintàctiques. Posteriorment, durant els anys seixanta, comencen a aparèixer les primeres aplicacions de robòtica i tractament del llenguatge i d'imatges. Aviat les possibilitats pràctiques i econòmiques de la intel·ligència artificial es van fer evidents per la seva capacitat de tractar problemes d'organització i control en situacions crítiques, per la massa de dades a manipular o la velocitat necessària del procés. Per això, un dels grans impulsors de la intel·ligència artificial en els anys setanta ha estat el complex militar-industrial, en comprendre les seves possibilitats per a la guerra espacial i el control de l'armament nuclear. Tanbién la robòtica es beneficia dels descobriments de la intel·ligència artificial i propulsa el seu estudi a partir dels anys vuitanta. Operacions com la compravenda d'accions en borsa, l'assignació de crèdits, o la diagnosi i el tractament a través d'imatges mèdiques, són àmbits en els quals les aplicacions de la IA són comunes, i actualment les tècniques de programació desenvolupades per la intel·ligència artificial formen part de les eines de treball de les quals disposa l'enginyer informàtic.
+
Superar aquest test a curt termini era impensable. Inicialment es va tractar de començar a crear programes d'ordinador capaços de simular aspectes molt reduïts de la intel·ligència, amb l'esperança de generalitzar, a partir d'aquests programes de baix nivell, sistemes cada vegada més intel·ligents. Així, en els anys cinquanta del segle XX, Herbert Simon i Allan Newell van idear els primers programes capaços de demostrar certs teoremes de lògica proposats per [[Autor:Whitehead, Alfred North|Whitehead]] i [[Autor:Russell, Bertrand|Russell]] en ''Principia Mathematica''. És a dir, programes capaços de deduir, a partir d'axiomes bàsics i gràcies a les regles de transformació i recerca programades, teoremes complexos no definits al programa. Els supòsits teòrics d'aquests autors pertanyen a la tradició racionalista de la [[mathesis universalis|''mathesis'']]: consideren que la intel·ligència està basada en la manipulació de representacions que poden descompondre's en elements bàsics primitius o simples lligats per regles sintàctiques. Posteriorment, durant els anys seixanta, comencen a aparèixer les primeres aplicacions de robòtica i tractament del llenguatge i d'imatges. Aviat les possibilitats pràctiques i econòmiques de la intel·ligència artificial es van fer evidents per la seva capacitat de tractar problemes d'organització i control en situacions crítiques, per la massa de dades a manipular o la velocitat necessària del procés. Per això, un dels grans impulsors de la intel·ligència artificial en els anys setanta ha estat el complex militar-industrial, en comprendre les seves possibilitats per a la guerra espacial i el control de l'armament nuclear. També la robòtica es beneficia dels descobriments de la intel·ligència artificial i propulsa el seu estudi a partir dels anys vuitanta del segle XX. Operacions com la compravenda d'accions en borsa, l'assignació de crèdits, o la diagnosi i el tractament a través d'imatges mèdiques, són àmbits en les quals les aplicacions de la IA són comunes, i actualment les tècniques de programació desenvolupades per la intel·ligència artificial formen part de les eines de treball de les que disposa l'enginyer informàtic.
  
A mesura que la intel·ligència artificial ha anat evolucionant, les seves diferents tècniques s'han anat diversificant i han constituït subdisciplinas més o menys independents i sovint en controvèrsia. En particular, existeix una profunda divisió entre les anomenades tendències simbòliques derivades de la comprensió de la intel·ligència com a procés de [[deducció|deducció]] lògic (cas de Newell i Simon), i les tendències subsimbòliques o numèriques, de concepció probabilista. La intel·ligència artificial simbòlica tracta de crear sistemes cada vegada més perfeccionats i complexos d'organització i tractament d'informació fortament estructurada. Els [[sistemes experts|sistemes experts]], les xarxes semàntiques i l'anomenat aprenentatge per màquina (''machine learning'') són disciplines característiques d'aquesta tendència. La tendència subsimbòlica utilitza, en canvi, dades d'un nivell d'abstracció i representativitat molt menor. Aquest enfocament permet el tractament de dades no estructurades, com poden ser les imatges o sons, però es veu limitat en la seva interpretació per la falta d'una [[semàntica|semàntica]] apropiada dels seus operadors. Les disciplines més característiques d'aquesta tendència són les xarxes neuronals artificials, la [[lògica difusa|lògica difusa]] o els models gràfics. Existeixen també nombroses disciplines que han optat per una utilització mixta d'ambdues tendències: des de la perspectiva subsimbòlica per a un tractament de dades de nivell numèric o perceptiu, i des del model simbòlic per a l'estructuració de coneixements, creació de plans i presa de decisions. Els [[sistemes de visió per ordinador|sistemes de visió per ordinador]] i els sistemes de [[sistemes de llenguatge natural|reconeixement del llenguatge natural]] són dos dels exemples més importants d'aquest enfocament dual.
 
  
La IA s'ha anat desenvolupant paral·lelament a les [[ciències cognitives|ciències cognitives]] i a la [[filosofia de la ment|filosofia de la ment]]. En aquest àmbit, Jerry Fodor ha sustentat una teoria computacional de l'esperit coneguda com a teoria representacional i teoria modular de la ment, que s'emmarca en les tendències simbòliques. Aquesta estructura modular està estructurada en tres nivells: a) un nivell d'entrades dels estímuls del món extern; b) sistemes d'entrades modulars que generen símbols, i c) un sistema de processament central que és la seu dels processos cognitius. Cadascun d'aquests nivells modulars pot ser modificat sense necessitat de modificar el conjunt, la qual cosa, en el cas dels organismes vius, és afavorit pels processos evolutius. Fodor sosté que els estats mentals són de naturalesa computacional, i afirma que la ment és independent del suport (''maquinari''), sent més aviat semblant al ''programari''.
+
A mesura que la intel·ligència artificial ha anat evolucionant, les seves diferents tècniques s'han anat diversificant i han constituït subdisciplines més o menys independents i sovint en controvèrsia. En particular, existeix una profunda divisió entre les anomenades tendències simbòliques derivades de la comprensió de la intel·ligència com a procés de [[deducció|deducció]] lògica (cas de Newell i Simon), i les tendències subsimbòliques o numèriques, de concepció probabilista. La intel·ligència artificial simbòlica tracta de crear sistemes cada vegada més perfeccionats i complexos d'organització i tractament d'informació fortament estructurada. Els [[sistemes experts|sistemes experts]], les xarxes semàntiques i l'anomenat aprenentatge per màquina (''machine learning'') són disciplines característiques d'aquesta tendència. La tendència subsimbòlica utilitza, en canvi, dades d'un nivell d'abstracció i representativitat molt menor. Aquest enfocament permet el tractament de dades no estructurades, com poden ser les imatges o sons, però es veu limitat en la seva interpretació per la falta d'una [[semàntica|semàntica]] apropiada dels seus operadors. Les disciplines més característiques d'aquesta tendència són les xarxes neuronals artificials, la [[lògica difusa|lògica difusa]] o els models gràfics. Existeixen també nombroses disciplines que han optat per una utilització mixta d'ambdues tendències: des de la perspectiva subsimbòlica per a un tractament de dades de nivell numèric o perceptiu, i des del model simbòlic per a l'estructuració de coneixements, creació de plans i presa de decisions. Els [[sistemes de visió per ordinador|sistemes de visió per ordinador]] i els sistemes de [[sistemes de llenguatge natural|reconeixement del llenguatge natural]] són dos dels exemples més importants d'aquest enfocament dual.
 +
 
 +
 
 +
La IA s'ha anat desenvolupant paral·lelament a les [[ciències cognitives|ciències cognitives]] i a la [[filosofia de la ment|filosofia de la ment]]. En aquest àmbit, Jerry Fodor ha sustentat una teoria computacional de l'esperit coneguda com a teoria representacional i teoria modular de la ment, que s'emmarca en les tendències simbòliques. Aquesta estructura modular està estructurada en tres nivells: '''a)''' un nivell d'entrades dels estímuls del món extern; '''b)''' sistemes d'entrades modulars que generen símbols, i '''c)''' un sistema de processament central que és la seu dels processos cognitius. Cadascun d'aquests nivells modulars pot ser modificat sense necessitat de modificar el conjunt, la qual cosa, en el cas dels organismes vius, és afavorit pels processos evolutius. Fodor sosté que els estats mentals són de naturalesa computacional, i afirma que la ment és independent del suport (''maquinari''), essent més aviat semblant al ''programari''.
  
 
El filòsof H. Dreyfus ha qüestionat les bases de les tesis de la IA, especialment la que sosté el model simbòlic, ja que, segons ell, es fonamenta sobre quatre postulats discutibles, que són:
 
El filòsof H. Dreyfus ha qüestionat les bases de les tesis de la IA, especialment la que sosté el model simbòlic, ja que, segons ell, es fonamenta sobre quatre postulats discutibles, que són:
Línia 28: Línia 30:
 
'''4)''' postulat ontològic: tota informació pot ser analitzada independentment del seu context, ja que tot el que existeix és un conjunt de fets lògicament independent dels altres.
 
'''4)''' postulat ontològic: tota informació pot ser analitzada independentment del seu context, ja que tot el que existeix és un conjunt de fets lògicament independent dels altres.
  
En contraposició a l'orientació simbòlica, de tipus atomista, els defensors dels models connexionistes, especialment els que es basen a les xarxes neuronals (o neurals), com a W. Pitts i W. McCulloch, sostenen tesi més [[holisme|holistes]]: una xarxa neuronal no està programada com un ordinador, sinó que ha de ser educada mitjançant processos d'aprenentatge basats en l'associació d'estímuls. Seguidors de models neoconnexionistes són, per exemple, M. Minsky i S. Papert. Contra les tesis connexionistes, Fodor replica afirmant que aquests models no expliquen les característiques bàsiques dels processos cognitius, i són inadequats per a una teorització dels processos de la intel·ligència.
+
En contraposició a l'orientació simbòlica, de tipus atomista, els defensors dels models connexionistes, especialment els que es basen en les xarxes neuronals (o neurals), com a W. Pitts i W. McCulloch, sostenen tesi més [[holisme|holistes]]: una xarxa neuronal no està programada com un ordinador, sinó que ha de ser educada mitjançant processos d'aprenentatge basats en l'associació d'estímuls. Seguidors de models neoconnexionistes són, per exemple, M. Minsky i S. Papert. Contra les tesis connexionistes, Fodor replica afirmant que aquests models no expliquen les característiques bàsiques dels processos cognitius, i són inadequats per a una teorització dels processos de la intel·ligència.
  
 
[[File:Searle2.jpg|thumb|John Searle‎]]
 
[[File:Searle2.jpg|thumb|John Searle‎]]
[[Autor:Searle, John|Searle]] distingeix entre els defensors de la IA feble (que s'acontenten a afirmar la utilitat dels models computacionals per a l'estudi de la intel·ligència) i els defensors de la IA forta (que sostenen que un ordinador, amb un programa adequat posseeix pròpiament estats cognitius ([[Recurs:cita Searle|veg. citació]]). En contra dels defensors d'aquesta última tesi va proposar el seu conegut [[experiment mental |experiment mental]] de l{{'}}''habitació xinesa ''([[Recurs:Searle: l'habitació xinesa|veg. text]]) en el qual assenyala que un ordinador es limita a manipular símbols a partir d'unes instruccions. Aquest funcionament, merament sintàctic, no permet afirmar que l'ordinador sigui capaç de comprendre els seus actes. No obstant això, s'han alçat diverses crítiques a aquest argument.
 
  
Una d'elles consisteix a assenyalar que l'exemple proposat per Searle és defectuós, ja que un individu sol, manipulant símbols que no entén, no pot comparar-se als milions d'operacions per segon que efectua un ordinador. A això Searle va respondre que, si en lloc d'un individu aïllat en una habitació es proposés com a exemple milions d'individus, el seu argument seguiria sent vàlid, ja que cap d'aquests individus entendria realment les operacions amb símbols segons regles. Com a contrarèplica s'ha assenyalat que aquests milers o milions d'individus –cada un dels quals no entén les operacions que realitza– s'assemblen més als milions de neurones d'un cervell que al cervell mateix. Per aquesta raó, els defensors de la IA forta, com Jack Copeland, sostenen que el que explica és pròpiament l'algorisme, i que és indiferent si aquest algorisme és executat per un cervell, un ordinador, un sistema de canonades o per milions d'individus. L'única cosa realment significativa és l'estructura lògica de l'algorisme. Com a resposta a aquesta contrarèplica Searle ha assenyalat que la IA forta representa una nova forma de dualisme, en el qual, en lloc d'un ''res cogitans,'' es posa l'estructura lògica d'un algorisme, l'estatus ontològic del qual s'assemblaria al de les idees platòniques. Davant això Searle proposa una teoria [[emergentisme|emergentista]]: els fenòmens mentals són una manifestació del [[cervell, el|cervell]], però ni es confonen amb ell, ni tenen una existència autònoma, sinó que són propietats emergents.
+
[[Autor:Searle, John|Searle]] distingeix entre els defensors de la '''IA feble''' (que s'acontenten a afirmar la utilitat dels models computacionals per a l'estudi de la intel·ligència) i els defensors de la '''IA forta''' (que sostenen que un ordinador, amb un programa adequat posseeix pròpiament estats cognitius ([[Recurs:cita Searle|veg. citació]]). <ref>La IA (Intel·ligència Artificial) forta és una tesi filosòfica segons la qual el que anomenem ments són en realitat programes informàtics digitals. Es parla de IA «forta» per a distingir-la de la IA «feble» o «cauta», que sosté que els ordinadors són eines molt útils en l'estudi de la ment, però no que un ordinador tingui ment en sentit literal. Alguns dels corol·laris de la IA forta són la irrellevància de la neurofisiologia per a l'estudi de la ment, i la identificació d'estats mentals i estats computacionals. Contra aquesta última tesi dirigeix Searle el seu famós argument de l' [[Recurs:Searle:_l'habitació_xinesa|Habitació xinesa]]. Vegeu Searle, J., «Minds, Brains, and Programs» (1980), en ''Behavioral and Brain Sciences'', 3 (3), pags. 417-424 (trad. cast.: «Mentes, cerebros y programas», cap. 22 de  Dennett, D. i Hofstader, D. (comps.), ''El ojo de la mente:fantasias i reflexions sobre el yo y el alma'', Buenos Aires, Sud-americana, 1983).</ref>
  
No obstant això, i a més dels èxits en els sistemes experts i altres àmbits, en la mesura en què la intel·ligència artificial ha permès una nova forma d'interrogar-se sobre la ment, adquireix una especial rellevància filosòfica. (Amb la col·laboració d'Hugo Zaragoza Ballester).
+
Una d'elles consisteix a assenyalar que l'exemple proposat per Searle és defectuós, ja que un individu sol, manipulant símbols que no entén, no pot comparar-se als milions d'operacions per segon que efectua un ordinador. A això Searle va respondre que, si en lloc d'un individu aïllat en una habitació es proposés com a exemple milions d'individus, el seu argument seguiria sent vàlid, ja que cap d'aquests individus entendria realment les operacions amb símbols segons regles. Com a contrarèplica s'ha assenyalat que aquests milers o milions d'individus –cada un dels quals no entén les operacions que realitza– s'assemblen més als milions de neurones d'un cervell que al cervell mateix. Per aquesta raó, els defensors de la IA forta, com Jack Copeland, sostenen que el que explica és pròpiament l'algorisme, i que és indiferent si aquest algorisme és executat per un cervell, un ordinador, un sistema de canonades o per milions d'individus. L'única cosa realment significativa és l'estructura lògica de l'algorisme. Com a resposta a aquesta contrarèplica [[Autor:Searle, John|Searle]] ha assenyalat que la IA forta representa una nova forma de [[dualisme]], en el qual, en lloc d'una ''res cogitans,'' es posa l'estructura lògica d'un algorisme, l'estatus ontològic del qual s'assemblaria al de les idees platòniques. Davant això Searle proposa una teoria [[emergentisme|emergentista]]: els fenòmens mentals són una manifestació del [[cervell, el|cervell]], però ni es confonen amb ell, ni tenen una existència autònoma, sinó que són propietats emergents.
  
 +
No obstant això, i a més dels èxits en els sistemes experts i altres àmbits, en la mesura en què la intel·ligència artificial ha permès una nova forma d'interrogar-se sobre la ment, adquireix una especial rellevància filosòfica.
  
 
__________________________________________
 
__________________________________________

Revisió de 12:32, 28 gen 2021

Com a disciplina autònoma, la intel·ligència artificial (IA) va sorgir en 1956 a partir del «Darmouth Summer Research Project on AI» organitzat per J. McCarthy, que va comptar amb la col·laboració de M. Minsky, H. Simon i A. Newell. Encara que existeixen diverses definicions d'intel·ligència artificial, l'enorme diversificació que ha vist aquesta disciplina des dels anys setanta del segle XX fa difícil una definició precisa.

Marvin Minsky

Marvin Minsky, un dels primers i més importants investigadors en IA, defineix la seva disciplina com «la realització de sistemes informàtics amb un comportament que en l'ésser humà qualifiquem d'intel·ligent». Winston la va definir, en 1984, com «l'estudi de les idees que permeten als ordinadors ser intel·ligents», i Roger Penrose la concep com a «imitació per mitjà de màquines, normalment electròniques, de tantes activitats mentals com sigui possible, i potser arribar a millorar les capacitats humanes en aquests aspectes» [1] (vegeu referència). No obstant això, s'ha objectat que sense una bona definició prèvia d'intel·ligència, qualsevol definició precisa d'intel·ligència artificial està destinada al fracàs. Una altra objecció que es va plantejar en els seus inicis es basava en el fet que una màquina solament mostra la seva intel·ligència quan executa un programa, la qual cosa més que dir res en favor de la intel·ligència de la màquina ho diu en favor de la intel·ligència del seu programador.

Però la IA, encara que és una ciència experimental, proposa tot un seguit de problemes filosòfics (què ha d'entendre's per intel·ligència, pensament, raonament, ment?), i els situa en un terreny nou, molt proper al de les ciències cognitives i als de la filosofia de la ment. D'altra banda, els seus resultats, cada vegada més espectaculars, permeten un ampli debat sobre les nocions d'intencionalitat, intel·ligència, sentiments i, en general, de tots els conceptes involucrats en la noció del mental, alhora que fa reflexionar sobre una nova concepció del mecànic que ja no pot limitar-se a les tesis del mecanicisme clàssic.

Els primers intents de rèplica de comportaments intel·ligents poden trobar-se en la construcció d'autòmats mecànics. No obstant això, els intents de la formalització del raonament i la definició del coneixement des del camp de l'epistemologia i la lògica matemàtica són antecedents més directes i crucials per al posterior desenvolupament de la intel·ligència artificial. Tal és el cas de les investigacions d'autors com: Llull, Leibniz, Descartes, Hume, Russell, Hilbert, Boole, Turing i uns altres. La invenció dels ordinadors en els anys cinquanta del segle XX, amb la gran capacitat de càlcul i de tractament de símbols d'aquestes noves màquines, va conduir ràpidament a una reflexió sobre el seu límit computacional i lògic. Però, al costat de les prestacions dels ordinadors, en els orígens de la IA, estan la cibernètica, els sistemes d'autoregulació de Norbert Wiener, la teoria computacional de von Neumann, la teoria de la informació de Shannon i Weaver, la neurobiologia i les ciències cognitives.

Alan Turing

Alan Turing va ser un dels primers a formular explícitament un programa d'estudi que portaria a la intel·ligència artificial com a disciplina a la fi dels anys cinquanta del segle XX. Turing va idear un «test» (el cèlebre test de Turing) per a verificar l'eventual intel·ligència d'una màquina. Bàsicament, es tracta de verificar si un observador és capaç de distingir una màquina d'una persona, podent tan sols comunicar-se a través d'un teclat i una pantalla. Si la màquina aconsegueix despistar a l'observador, Turing argumenta que la podem considerar com a intel·ligent, encara que ell mateix –fervent defensor de la possibilitat de la IA–, assenyala que aquesta màquina encara estaria allunyada de l'ésser humà i mancaria d'intencionalitat.

Superar aquest test a curt termini era impensable. Inicialment es va tractar de començar a crear programes d'ordinador capaços de simular aspectes molt reduïts de la intel·ligència, amb l'esperança de generalitzar, a partir d'aquests programes de baix nivell, sistemes cada vegada més intel·ligents. Així, en els anys cinquanta del segle XX, Herbert Simon i Allan Newell van idear els primers programes capaços de demostrar certs teoremes de lògica proposats per Whitehead i Russell en Principia Mathematica. És a dir, programes capaços de deduir, a partir d'axiomes bàsics i gràcies a les regles de transformació i recerca programades, teoremes complexos no definits al programa. Els supòsits teòrics d'aquests autors pertanyen a la tradició racionalista de la mathesis: consideren que la intel·ligència està basada en la manipulació de representacions que poden descompondre's en elements bàsics primitius o simples lligats per regles sintàctiques. Posteriorment, durant els anys seixanta, comencen a aparèixer les primeres aplicacions de robòtica i tractament del llenguatge i d'imatges. Aviat les possibilitats pràctiques i econòmiques de la intel·ligència artificial es van fer evidents per la seva capacitat de tractar problemes d'organització i control en situacions crítiques, per la massa de dades a manipular o la velocitat necessària del procés. Per això, un dels grans impulsors de la intel·ligència artificial en els anys setanta ha estat el complex militar-industrial, en comprendre les seves possibilitats per a la guerra espacial i el control de l'armament nuclear. També la robòtica es beneficia dels descobriments de la intel·ligència artificial i propulsa el seu estudi a partir dels anys vuitanta del segle XX. Operacions com la compravenda d'accions en borsa, l'assignació de crèdits, o la diagnosi i el tractament a través d'imatges mèdiques, són àmbits en les quals les aplicacions de la IA són comunes, i actualment les tècniques de programació desenvolupades per la intel·ligència artificial formen part de les eines de treball de les que disposa l'enginyer informàtic.


A mesura que la intel·ligència artificial ha anat evolucionant, les seves diferents tècniques s'han anat diversificant i han constituït subdisciplines més o menys independents i sovint en controvèrsia. En particular, existeix una profunda divisió entre les anomenades tendències simbòliques derivades de la comprensió de la intel·ligència com a procés de deducció lògica (cas de Newell i Simon), i les tendències subsimbòliques o numèriques, de concepció probabilista. La intel·ligència artificial simbòlica tracta de crear sistemes cada vegada més perfeccionats i complexos d'organització i tractament d'informació fortament estructurada. Els sistemes experts, les xarxes semàntiques i l'anomenat aprenentatge per màquina (machine learning) són disciplines característiques d'aquesta tendència. La tendència subsimbòlica utilitza, en canvi, dades d'un nivell d'abstracció i representativitat molt menor. Aquest enfocament permet el tractament de dades no estructurades, com poden ser les imatges o sons, però es veu limitat en la seva interpretació per la falta d'una semàntica apropiada dels seus operadors. Les disciplines més característiques d'aquesta tendència són les xarxes neuronals artificials, la lògica difusa o els models gràfics. Existeixen també nombroses disciplines que han optat per una utilització mixta d'ambdues tendències: des de la perspectiva subsimbòlica per a un tractament de dades de nivell numèric o perceptiu, i des del model simbòlic per a l'estructuració de coneixements, creació de plans i presa de decisions. Els sistemes de visió per ordinador i els sistemes de reconeixement del llenguatge natural són dos dels exemples més importants d'aquest enfocament dual.


La IA s'ha anat desenvolupant paral·lelament a les ciències cognitives i a la filosofia de la ment. En aquest àmbit, Jerry Fodor ha sustentat una teoria computacional de l'esperit coneguda com a teoria representacional i teoria modular de la ment, que s'emmarca en les tendències simbòliques. Aquesta estructura modular està estructurada en tres nivells: a) un nivell d'entrades dels estímuls del món extern; b) sistemes d'entrades modulars que generen símbols, i c) un sistema de processament central que és la seu dels processos cognitius. Cadascun d'aquests nivells modulars pot ser modificat sense necessitat de modificar el conjunt, la qual cosa, en el cas dels organismes vius, és afavorit pels processos evolutius. Fodor sosté que els estats mentals són de naturalesa computacional, i afirma que la ment és independent del suport (maquinari), essent més aviat semblant al programari.

El filòsof H. Dreyfus ha qüestionat les bases de les tesis de la IA, especialment la que sosté el model simbòlic, ja que, segons ell, es fonamenta sobre quatre postulats discutibles, que són:

1) postulat biològic: el cervell, com els ordinadors, actua mitjançant operacions discretes;

2) postulat psicològic: la ment, com els ordinadors, és un sistema que opera mitjançant regles formals;

3) postulat epistemològic: tot saber pot ser formalitzat o explicitat formalment;

4) postulat ontològic: tota informació pot ser analitzada independentment del seu context, ja que tot el que existeix és un conjunt de fets lògicament independent dels altres.

En contraposició a l'orientació simbòlica, de tipus atomista, els defensors dels models connexionistes, especialment els que es basen en les xarxes neuronals (o neurals), com a W. Pitts i W. McCulloch, sostenen tesi més holistes: una xarxa neuronal no està programada com un ordinador, sinó que ha de ser educada mitjançant processos d'aprenentatge basats en l'associació d'estímuls. Seguidors de models neoconnexionistes són, per exemple, M. Minsky i S. Papert. Contra les tesis connexionistes, Fodor replica afirmant que aquests models no expliquen les característiques bàsiques dels processos cognitius, i són inadequats per a una teorització dels processos de la intel·ligència.

John Searle‎

Searle distingeix entre els defensors de la IA feble (que s'acontenten a afirmar la utilitat dels models computacionals per a l'estudi de la intel·ligència) i els defensors de la IA forta (que sostenen que un ordinador, amb un programa adequat posseeix pròpiament estats cognitius (veg. citació). [2]

Una d'elles consisteix a assenyalar que l'exemple proposat per Searle és defectuós, ja que un individu sol, manipulant símbols que no entén, no pot comparar-se als milions d'operacions per segon que efectua un ordinador. A això Searle va respondre que, si en lloc d'un individu aïllat en una habitació es proposés com a exemple milions d'individus, el seu argument seguiria sent vàlid, ja que cap d'aquests individus entendria realment les operacions amb símbols segons regles. Com a contrarèplica s'ha assenyalat que aquests milers o milions d'individus –cada un dels quals no entén les operacions que realitza– s'assemblen més als milions de neurones d'un cervell que al cervell mateix. Per aquesta raó, els defensors de la IA forta, com Jack Copeland, sostenen que el que explica és pròpiament l'algorisme, i que és indiferent si aquest algorisme és executat per un cervell, un ordinador, un sistema de canonades o per milions d'individus. L'única cosa realment significativa és l'estructura lògica de l'algorisme. Com a resposta a aquesta contrarèplica Searle ha assenyalat que la IA forta representa una nova forma de dualisme, en el qual, en lloc d'una res cogitans, es posa l'estructura lògica d'un algorisme, l'estatus ontològic del qual s'assemblaria al de les idees platòniques. Davant això Searle proposa una teoria emergentista: els fenòmens mentals són una manifestació del cervell, però ni es confonen amb ell, ni tenen una existència autònoma, sinó que són propietats emergents.

No obstant això, i a més dels èxits en els sistemes experts i altres àmbits, en la mesura en què la intel·ligència artificial ha permès una nova forma d'interrogar-se sobre la ment, adquireix una especial rellevància filosòfica.

__________________________________________

  1. Roger Penrose, La nueva mente del emperador, Mondadori, Madrid 1991, p. 33.
  2. La IA (Intel·ligència Artificial) forta és una tesi filosòfica segons la qual el que anomenem ments són en realitat programes informàtics digitals. Es parla de IA «forta» per a distingir-la de la IA «feble» o «cauta», que sosté que els ordinadors són eines molt útils en l'estudi de la ment, però no que un ordinador tingui ment en sentit literal. Alguns dels corol·laris de la IA forta són la irrellevància de la neurofisiologia per a l'estudi de la ment, i la identificació d'estats mentals i estats computacionals. Contra aquesta última tesi dirigeix Searle el seu famós argument de l' Habitació xinesa. Vegeu Searle, J., «Minds, Brains, and Programs» (1980), en Behavioral and Brain Sciences, 3 (3), pags. 417-424 (trad. cast.: «Mentes, cerebros y programas», cap. 22 de Dennett, D. i Hofstader, D. (comps.), El ojo de la mente:fantasias i reflexions sobre el yo y el alma, Buenos Aires, Sud-americana, 1983).