Globalització: Textos de Manuel Castells
De Wikisofia
La revisió el 15:59, 12 maig 2018 per Jorcor (discussió | contribucions) (Es crea la pàgina amb «{{RecursWiki |Tipus=Extractes d'obres }} {{RecursBase |Nom=TextosManuelCastells |Idioma=Español }} (Textos en castellà de Manuel Castells sobre la globalització) '...».)
(Textos en castellà de Manuel Castells sobre la globalització) Globalización y antiglobalización
MANUEL CASTELLS
Sinopsis: El profesor de la Universitat Oberta de Catalunya (UOC) Manuel Castells analiza la globalización y cómo la sociedad, al carecer de cauces de participación se ha movilizado en torno a unos grupos que propugnan una reestructuración del sistema y la sociedad.
A estas alturas, todo quisqui tiene su opinión sobre la globalización. Éste es el principal mérito del movimiento global contra la globalización: el haber puesto sobre el tapete del debate social y político lo que se presentaba como vía única e indiscutible del progreso de la humanidad. Como es lo propio de todo gran debate ideológico, se plantea en medio de la confusión y la emoción, muertos incluidos. Por eso me pareció que, en lugar de añadir mi propia toma de posición a las que se publican cada día, podría ser más útil para usted, atento lector en su relajado entorno veraniego, el recordar algunos de los datos que enmarcan el debate. Empezando por definir la globalización misma. Se trata de un proceso objetivo, no de una ideología, aunque haya sido utilizado por la ideología neoliberal como argumento para pretenderse como la única racionalidad posible. Y es un proceso multidimensional, no solo económico. Su expresión más determinante es la interdependencia global de los mercados financieros, permitida por las nuevas tecnologías de información y comunicación y favorecida por la desregulación y liberalización de dichos mercados. Si el dinero (el de nuestros bancos y fondos de inversión, o sea, el suyo y el mío) es global, nuestra economía es global, porque nuestra economía (naturalmente capitalista, aunque sea de un capitalismo distinto) se mueve al ritmo de la inversión de capital. Y si las monedas se cotizan globalmente (porque se cambian dos billones de dólares diarios en el mercado de divisas), las políticas monetarias no pueden decidirse autónomamente en los marcos nacionales. También está globalizada la producción de bienes y servicios, en torno a redes productivas de 53.000 empresas multinacionales y sus 415.000 empresas auxiliares. Estas redes emplean tan sólo a unos 200 millones de trabajadores (de los casi 3.000 millones de gentes que trabajan para vivir en todo el planeta), pero en dichas redes se genera el 30% del producto bruto global y 2/3 del comercio mundial.
Por tanto, el comercio internacional es el sector del que depende la creación de riqueza en todas las economías, pero ese comercio expresa la internacionalización del sistema productivo. También la ciencia y la tecnología están globalizadas en redes de comunicación y cooperación, estructuradas en torno a los principales centros de investigación universitarios y empresariales. Como lo está el mercado global de trabajadores altamente especializados, tecnólogos, financieros, futbolistas y asesinos profesionales, por poner ejemplos. Y las migraciones contribuyen a una globalización creciente de otros sectores de trabajadores. Pero la globalización incluye el mundo de la comunicación, con la interpenetración y concentración de los medios de comunicación en torno a siete grandes grupos multimedia, conectados por distintas alianzas a unos pocos grupos dominantes en cada país (cuatro o cinco en España, según como se cuente). Y la comunicación entre la gente también se globaliza a partir de Internet (nos aproximamos a 500 millones de usuarios en el mundo y a una tasa media de penetración de un tercio de la población en la Unión Europea). El deporte, una dimensión esencial de nuestro imaginario colectivo, vive de su relación local-global, con la identidad catalana vibrando con argentinos y brasileños tras haber superado su localismo holandés. En fin, también las instituciones políticas se han globalizado a su manera, construyendo un Estado red en el que los Estados nacionales se encuentran con instituciones supranacionales como la Unión Europea o clubes de decisión como el G-8 o instituciones de gestión como el FMI para tomar decisiones de forma conjunta. Lejos queda el espacio nacional de representación democrática, mientras que los espacios locales se construyen como resistencia más que como escalón participativo. De hecho, los Estados nacionales no sufren la globalización, sino que han sido sus principales impulsores, mediante políticas liberalizadoras, convencidos como estaban y como están de que la globalización crea riqueza, ofrece oportunidades y, al final del recorrido, también les llegarán sus frutos a la mayoría de los hoy excluidos.
El problema para ese horizonte luminoso es que las sociedades no son entes sumisos susceptibles de programación. La gente vive y reacciona con lo que va percibiendo y, en general, desconfía de los políticos. Y, cuando no encuentra cauces de información y de participación, sale a la calle. Y así, frente a la pérdida de control social y político sobre un sistema de decisión globalizado que actúa sobre un mundo globalizado, surge el movimiento antiglobalización, comunicado y organizado por Internet, centrado en protestas simbólicas que reflejan los tiempos y espacios de los decisores de la globalización y utilizan sus mismos cauces de comunicación con la sociedad: los medios informativos, en donde una imagen vale más que mil ponencias.
¿Qué es ese movimiento antiglobalización? Frente a los mil intérpretes que se ofrecen cada día para revelar su esencia, los investigadores de los movimientos sociales sabemos que un movimiento es lo que dice que es, porque es en torno a esas banderas explícitas donde se agregan voluntades. Sabemos que es muy diverso, e incluso contradictorio, como todos los grandes movimientos. Pero ¿qué voces salen de esa diversidad? Unos son negros, otros blancos, otros verdes, otros rojos, otros violeta y otros etéreos de meditación y plegaria. Pero ¿qué dicen? Unos piden un mejor reparto de la riqueza en el mundo, rechazan la exclusión social y denuncian la paradoja de un extraordinario desarrollo tecnológico acompañado de enfermedades y epidemias en gran parte del planeta. Otros defienden al planeta mismo, a nuestra madre Tierra, amenazada de desarrollo insostenible, algo que sabemos ahora precisamente gracias al progreso de la ciencia y la tecnología. Otros recuerdan que el sexismo también se ha globalizado. Otros defienden la universalización efectiva de los derechos humanos. Otros afirman la identidad cultural y los derechos de los pueblos a existir más allá del hipertexto mediático. Algunos añaden la gastronomía local como dimensión de esa identidad. Otros defienden los derechos de los trabajadores en el norte y en el sur. O la defensa de la agricultura tradicional contra la revolución genética. Muchos utilizan algunos de los argumentos señalados para defender un proteccionismo comercial que limite el comercio y la inversión en los países en desarrollo. Otros se declaran abiertamente antisistema, anticapitalistas desde luego, pero también anti-Estado, renovando los vínculos ideológicos con la tradición anarquista que, significativamente, entra en el siglo XXI con más fuerza vital que la tradición marxista, marcada por la práctica histórica del marxismo-leninismo en el siglo XX. Y también hay numerosos sectores intelectuales de la vieja izquierda marxista que ven reivindicada su resistencia a la oleada neoliberal. Todo eso es el movimiento antiglobalización. Incluye una franja violenta, minoritaria, para quien la violencia es necesaria para revelar la violencia del sistema. Es inútil pedir a la gran mayoría pacífica que se desmarque de los violentos, porque ya lo han hecho, pero en este movimiento no hay generales y aun menos soldados. Tal vez sería más productivo para la paz pedir a los gobiernos que se desmarquen de sus policías violentos, ya que, según observadores fiables de las manifestaciones de Barcelona y Génova, la policía agravó la confrontación. No se puede descartar que algunos servicios de inteligencia piensen que la batalla esencial está en ganar la opinión pública y que asustar al pueblo llano con imágenes de feroces batallas callejeras puede conseguir socavar el apoyo a los temas del movimiento antiglobalización. Vano intento, pues, en su diversidad, muchos de esos mensajes están calando en las mentes de los ciudadanos, según muestran encuestas de opinión en distintos países.
Dentro de esa diversidad, si un rasgo une a este movimiento es tal vez el lema con el que se convocó la primera manifestación, la de Seattle: 'No a la globalización sin representación'. O sea, que, antes de entrar en los contenidos del debate, hay una enmienda a la mayor, al hecho de que se están tomando decisiones vitales para todos en contextos y en reuniones fuera del control de los ciudadanos. En principio, es una acusación infundada, puesto que la mayoría son representantes de gobiernos democráticamente elegidos. Pero ocurre que los electores no pueden leer la letra pequeña (o inexistente) de las elecciones a las que son llamados cada cuatro años con políticos que se centran en ganar la campaña de imagen y con gobiernos que bastante trabajo tienen con reaccionar a los flujos globales y suelen olvidarse de informar a sus ciudadanos. Y resulta también que la encuesta que Kofi Annan presentó en la Asamblea del Milenio de Naciones Unidas señala que 2/3 de los ciudadanos del mundo (incluyendo las democracias occidentales) no piensan que sus gobernantes los representen. De modo que lo que dicen los movimientos antiglobalización es que esta democracia, si bien es necesaria para la mayoría, no es suficiente aquí y ahora. Así planteado el problema, se pueden reafirmar los principios democráticos abstractos, mientras se refuerza la policía y se planea trasladar las decisiones al espacio de los flujos inmateriales. O bien se puede repensar la democracia, construyendo sobre lo que conseguimos en la historia, en el nuevo contexto de la globalización. Que se haga una u otra cosa depende de usted y de muchos otros como usted. Y depende de que escuchemos, entre carga policial e imagen de televisión, la voz plural, hecha de protesta más que de propuesta, que nos llega del nuevo movimiento social en contra de esta globalización.
________________________
Globalización, tecnología, trabajo, empleo y empresa
MANUEL CASTELLS
En primer lugar, me centraré en la transformación que se ha producido. La transformación de orden económico y tecnológico. En términos económicos, puede caracterizarse la economía por tres grandes características: es informacional, es global y funciona en red. Vayamos a lo informacional.
Como sabéis en la economía hay dos características fundamentales, son la productividad y la competitividad. La productividad, como ya sabemos, es la unidad de cuántos productos se obtienen por unidad en sumos; y la competitividad es cómo se ganan partes del mercado, no necesariamente a costa de los otros, ya que el mercado se puede ampliar. Eso genera la competitividad positiva y la competitividad negativa (te destruyo a ti para tener más).
De hecho, la historia económica demuestra que la competitividad positiva, que es la ampliación de mercado para casi todo el mundo, suele ser más beneficiosa para todos que la negativa, la del "te tiro por la ventana para quedarme con este trozo de mercado". Por tanto, para empresas, regiones o países, estas dos variables, -productividad y competitividad-, son las variables centrales de toda economía. Se puede demostrar que los elementos clave hoy día son la capacidad tecnológica y humana de generar, procesar y producir.
La información
Información y conocimiento son las variables decisivas en la productividad y en la competitividad. No quiero decir que el capital no cuente. Sí que es importante. Pero con conocimiento y tecnología y sin capital, se puede llegar a generar bastante capital, y sino que se lo pregunten a Bill Gates. En cambio, con capital, pero sin tecnología y conocimiento se pierde ese capital, y sino que se lo pregunten a RCA, por ejemplo, que fue a la quiebra porque no desarrolló la tecnología adecuada en su momento. O a las empresas del automóvil europeas, de las que ya hablaremos después si queréis, pero que están sobreviviendo en base al capital japonés. Si entran de verdad las empresas japonesas en Europa, se acaba Renault, que no tiene capacidad de producir un coche en términos de horas-persona, que son más o menos un 40% más caros que en Toyota. Lo mismo para la competitividad de toda clase. Además, análisis econométricos demuestran que cuanta más tecnología tienen los sectores económicos o las empresas de un país, más partes del mercado dan.
Un ejemplo: Nokia. Estuve hace quince días en Finlandia, y me organizaron una reunión con toda la gente de Nokia, que me contó un poco su historia. Nokia en estos momentos es la segunda productora del mundo de teléfonos móviles y la primera europea, por encima de Alcatel, por encima de Ericson, etc. Nokia era una pequeña empresa, de una pequeña ciudad finlandesa, organizada primero en torno a la madera, que luego fue reconvirtiéndose. Tiene ciento treinta años. En los últimos veinticinco años entendieron que el tema era tecnología electrónica, informática y telecomunicaciones, se metieron a fondo allí y hace quince años dieron el salto para ocuparse totalmente de telefonía móvil. Vendieron, por ejemplo, sus empresas de televisión y sus demás productos e invirtieron todo lo que tenían en hacer una excelente telefonía móvil, y en estos momentos son los número uno.
Los ejemplos reales son muchos, pero es, sobretodo, con los datos de análisis econométricos, que se puede mostrar esta relación con la información: no sólo tecnología, también información. Si la tecnología es buena para procesar la información, pero no tienes buena información, tampoco puedes hacer nada. Información, tecnología, capacidad de gestión y procesamiento: ésta es la base para la creación de productividad y competitividad. Eso es una herramienta de empleo.
En otros momentos de la historia la información tal vez no ha sido muy importante para la economía y para la sociedad. La tecnología siempre ha sido poder absolutamente. Lo que cambia hoy día es que precisamente por el poder de las tecnologías de información, esa importancia se acrecienta. No que la información antes no era importante y ahora si. La información siempre ha sido importante. Pero al existir nuevas tecnologías de información, el grupo de la información tiene un papel más decisivo, ya que se puede procesar, transmitir muy deprisa y con gran flexibilidad.
El mito de la globalización
Segunda característica: es una economía global. Y esto tiene bastantes ambigüedades. Una economía global no es lo mismo que una economía mundial o que una economía fuertemente internacionalizada. Y me explico, porque este es un punto clave. Clave prácticamente, no sólo teóricamente.
La mayor parte de la gente en el mundo no trabaja en empresas globales, ni siquiera en empresas que están relacionadas con procesos globales. Se calcula -no sé si los datos son correctos- que entre el ochenta y el noventa por ciento de la mano de obra mundial trabaja en mercados de trabajo locales, locales entendiendo regionales, ni siquiera en nacionales. Obviamente incluyendo en esto toda la inmensa mano de obra rural en Asia, o África, o América Latina. Asia, todavía hoy, es más rural que industrial. Pero incluso en las economías urbanas la mayor parte de gente trabaja en mercados de trabajo locales. Así es en el mundo y también en España.
Aunque la venta en exportaciones es importante, la empresa hace lo esencial en el mercado nacional o regional. Desde ese punto de vista ha habido un mito: el de la globalización. Insisto, no es una economía mundializada, no es el mundo el ámbito de trabajo de la economía y del mercado de trabajo. Lo que ocurre es que las actividades cercadas, nucleares de todas las economías, sí están globalizadas
Por globalizadas entiendo que trabajan como una unidad en tiempo real a nivel planetario, esta es la definición de globalidad. O sea que las actividades económicas centrales, nucleares, de nuestras economías, trabajan como una unidad, en tiempo real, a nivel planetario a través de una red de interconexiones.
Un ejemplo: el mercado de capitales. El mercado de capitales sí está globalizado, pero no está globalizado absolutamente. Es decir, no es que todos los ahorros circulen globalmente cada día, pero están todos conectados todo el día. Acabamos de ver con la crisis asiática que no es que se hundió el yen, es que se hundió el baht tailandés.
Hay que tener en cuenta esto, porque se hunde el baht tailandés y afecta a mis ahorros en La Caixa, a través de una serie de interacciones y de oleadas sucesivas en el tiempo. Esto es nuevo. Que los mercados de capitales estén interconectados es nuevo, porque sólo ahora, en los últimos diez años, se ha creado la infraestructura tecnológica que permite la interconexión instantánea de capitales. Y los ordenadores están ya programados para que cualquier fondo de inversión pueda cambiar de moneda, de acciones a nivel mundial, siguiendo las ocasiones de rentabilidad y huyendo de los momentos de crisis. Esta movilidad global e instantánea del capital es una actividad globalizada, y no es algo secundario que en la economía capitalista el capital esté globalizado.
Información y tecnología
Segundo: la información y la tecnología están globalizadas. Es decir, hoy día hay unos stocks de tecnología, hay unos centros tecnológicos que se compran, se difunden, se transmiten en función de la capacidad de las empresas de ligarse a esos circuitos de tecnología global. No hay una tecnología catalana, una tecnología californiana -hubo tecnología californiana, pero ahora es global, no hay una tecnología japonesa. Hay un mercado de tecnología no siempre transparente, hay momentos de monopolio momentáneo, pero son momentos siempre reducidos, porque quien no sigue andando en esa tecnología, se queda obsoleto. Entonces, hay que abrir la tecnología que se tiene porque si no, no se puede interactuar con otras.
Eso, por cierto, tiene páginas. Es lo que le pasó a la Unión Soviética, que al cerrar su sistema tecnológico y no comunicar con nadie, porque era todo secreto militar, se quedó obsoleta.
La mano de obra más cualificada, no la mano de obra en general, también está globalizada. Es decir, los analistas financieros, los grandes periodistas, los tecnólogos. Esto sí que está globalizado. No necesariamente viven en todo el mundo, pero son mercados de trabajo en que la gente circula en esos niveles.
Los mercados más importantes y más dinámicos están interpenetrados, es decir, la mayor parte de mercados son regionales, pero es fundamental por parte de empresas de otros países la capacidad o no de penetrar en el mercado americano, en el mercado asiático, en el mercado latinoamericano. Es decir que, la estrategia, la situación de empresas en el comercio internacional sí es importante, aunque no sea lo único.
En última instancia, la producción está en parte globalizada en términos de la importancia que tienen empresas multinacionales y sus redes auxiliares de producción en el conjunto del mundo. Pero las empresas multinacionales no emplean tanta gente como parece, "sólo" unos setenta millones de trabajadores en todo el mundo.
En la base global de mano de obra no es mucho setenta millones de personas. Pero estos setenta millones de personas, en términos de valor, de producción de valor, es en torno a un tercio del valor de la producción mundial. Eso son directamente las empresas multinacionales. Con sus empresas y relaciones auxiliares, constituyen el corazón de la producción industrial y de servicios mundial. Esto es la otra cosa que a veces se olvida: -"Pero bueno, la producción industrial." -"No oiga, pero es que Arthur Andersen son servicios, la publicidad son servicios, es que los medios de comunicación son servicios, etc., y están globalmente globalizados." Este elemento de la globalización, como núcleos de empresas, hace que aunque la gran parte de la fuerza de trabajo y la gran mayoría de empresas no estén para nada globalizadas, la dinámica, la situación y el funcionamiento de las economías de todos los países dependan de la conexión con este núcleo central, por vínculos sucesivos entre lo que hago o en lo que trabajo y lo que ocurre en ese núcleo central en el país y en el mundo. Ese es el tipo de vinculación.
El funcionamiento en red
La tercera característica es que funciona en red. Y esto es relativamente nuevo: que las redes, son las redes del trabajo. Las redes empresariales son un término antiguo. Lo que ha cambiado con las redes también es la tecnología. Es decir, que la red -poner juntos varios elementos, varias personas, varios trozos de empresa o varias empresas para hacer algo juntos- tiene la ventaja de la flexibilidad, de la adaptación rápida a la demanda: cuando hay una demanda fuerte se organiza la red, cuando no la hay, se disuelve y se usan nuevos recursos.
Pero tiene un gran problema, que es la coordinación. Es un auténtico galimatías coordinar a catorce segmentos distintos de empresas y a muchos cientos de personas con espacios laborales diferentes. Con la nueva tecnología de información puedes tener la flexibilidad de la red y también la coordinación y unidad de proyecto de la decisión con las tareas que hay que realizar. Esto se concreta en la aparición de una nueva forma de actividad económica que llamo la empresa-red y que no son redes de una empresa.
En concreto, funciona así: veamos empíricamente y muy rápidamente lo que ha pasado en el mundo de la empresa en los últimos veinte años. Las grandes empresas se han descentralizado cada vez más, dando autonomía de decisión a departamentos y divisiones en cada mercado, en cada actividad. Por ejemplo, IBM estaba a punto de desaparecer como empresa y lo que hizo fue crear muchas pequeñas empresas. Cada una de ellas recibe autonomía e incluso compiten en ciertos mercados en cierta línea de producto. La empresa IBM sigue siendo la unidad de capital, la unidad jurídica, la unidad de estrategia financiera, pero cada departamento, cada división, cada mercado nacional y cada sucursal, trabaja con una gran autonomía. Por tanto, IBM se convierte en una red de empresas internas más o menos coordinadas entre ellas.
Las pequeñas y medianas empresas de todo el mundo son, con razón, las empresas más dinámicas, las que crean más empleo en todos los países. Claramente. Pero el problema de la pequeña y mediana empresa es que es muy dinámica, que puede hacer innovación, que es generalmente intensiva en el trabajo, pero al mismo tiempo no tiene la masa de recursos, no tiene la capacidad de competir con grandes empresas en los mercados.
¿Qué es lo que está ocurriendo en todo el mundo? y ¿por qué las nuevas pequeñas y medianas empresas son dinámicas? Porque se han constituido en alianzas entre ellas, en cooperativas, en redes, pero no en redes estables. O sea, me pongo de acuerdo contigo para hacer esto este año o este mes y cuando se nos acaba esta orden que nos ha llegado, tú por tu lado y yo por el mío. O incluso la propia empresa desaparece y vuelve a aparecer cuando algo puede funcionar.
Esto es, por ejemplo, el modelo de las famosas empresas de la Emilia-Romaña italiana, del norte y centro de Italia. Funcionan así, son pequeñas y medianas empresas, pero funcionan en red. Algunas de ellas, funcionando así, se han hecho muy importantes, como Benetton.
¿Cómo funciona Benetton? Benetton -como sabéis es una empresa familiar- funciona en base a conceder licencias a cinco mil puntos de venta en el mundo, que tienen sólo dos obligaciones: una, que sólo venden productos Benetton. No puedes comprar nada más en una tienda Benetton. Segundo, que les envían diariamente información on-line de lo que venden. Sobretodo, de una característica fundamental. ¿Cual os parece que puede ser? ¿Qué característica de los productos Benetton tiene que saber ésta al día?: El color que más se vende. ¿Cómo se llama Benetton?: Los colores unidos de Benetton.
El producto Benetton no es un producto nada extraordinario, ropa deportiva, etc. Pero se les ocurrió la idea genial: el color es muy importante. Y el color depende de la moda, de la gente, del país, de cómo está el tiempo. Si eres capaz de reaccionar al color en cuestión de semanas y cambiar la línea de producción para determinados sitios y no para otros en función del color, te comes el mercado. Y una vez que tienes mercado, lo amplias.
La clave del sistema de Benetton es que, por un lado, tienen información on-line, directa al centro coordinador de Benetton, respecto al color y, por otro lado, economía informal a tope. La producción real de Benetton se hace en Turquía, en el sur de Italia, generalmente mujeres en su casa y en pequeños talleres, con lo cual pueden responder muy fácilmente porque tienen la oferta de trabajo siempre allí. En cuanto llega una nueva demanda: "¡Cambien el color!". Y cambian el color, con máquinas bastante avanzadas, pero con trabajo informal y descomunal. Por consiguiente, Benetton es una red de puesta de servicio del diseño central, los puntos de venta, la fabricación de economía informal. Eso es una red.
Pequeñas y medianas empresas funcionando en red han estado en la base del trabajo empírico que realicé, en parte, sobre Hong Kong. Ahora ya no, pero todo el desarrollo industrial de Hong Kong y Taiwan se basó en esto, en pequeñas y medianas empresas funcionando en red.
También están las grandes empresas que necesitan, obviamente, sus subsidiarios. Toyota tiene como quince mil empresas de subcontratistas. Éstas grandes empresas, que son una red interna, están conectadas a redes de pequeñas y medias empresas, por tanto es una red de redes. Y ya para complicar más el tema, pero vaya, es una cosa que desde vuestra práctica profesional lo conocéis perfectamente, son -en los últimos diez años es lo que se ha impuesto cómo práctica- las llamadas "alianzas estratégicas" entre grandes empresas, que no son los oligopolios tradicionales.
Pongamos un ejemplo concreto: IBM, Toshiba y Siemens se pusieron de acuerdo hace cuatro años para producir un chip de telecomunicaciones para el mercado alemán. En ese proyecto cada uno pone su gente, sus trozos de empresa, su capital, su tecnología. Y el proyecto operativo de esa empresa es ese chip, para ese mercado y en ese momento. Pero eso no quiere decir que Toshiba, Siemens o IBM se unan o tengan una alianza para diez años. No, porque el mismo día, a la misma hora y en otro sitio se están pegando. Pero para ese producto son aliados. Acaban ese producto y ya tienen el mercado. Se deshacen y a otra cosa.
Por tanto es una geometría variable. Es otra red que, como habíamos visto, es una red de redes, pues es un proyecto concreto que se constituye en torno a una red que utiliza las redes que cada uno tenía.
Esto tiene consecuencias bastante importantes, porque quiere decir que, si bien la unidad de acumulación de capital y acumulación a nivel jurídico -y en consecuencia de las acciones- es una empresa y por tanto sigue siendo una empresa, la unidad operativa real en la economía es una red, y es la red la que emplea, contrata, da órdenes y desemplea. Al ser un elemento de geometría variable, cambia de forma, de componentes, y la fuerza de trabajo cambia de tipo también. Cada vez más, estas redes tienen un núcleo de trabajo estable y una amplia periferia de trabajo inestable que se conecta y desconecta a la red según lo van necesitando las empresas.
El nuevo tipo de trabajo
Ahí tenemos el nuevo tipo de economía y el nuevo tipo de trabajo. Empezaremos por el trabajo y luego hablaremos del empleo.
El nuevo tipo de trabajo se caracteriza, cada vez más, por una separación fundamental entre dos tipos de trabajo -para traducir las ideas a lo esencial-. Uno, es lo que llamo el trabajo autoprogramable y, otro, lo que llamo trabajo genérico.
El trabajo autoprogramable es el que desarrolla aquel trabajador que tiene una capacidad instalada en él o ella de poder tener la posibilidad de redefinir sus capacidades conforme va cambiando la tecnología y conforme cambia a un nuevo puesto de trabajo. En estos momentos lo que la gente aprende, no sólo en bachillerato, sino en la formación profesional, o en sus primeros años de vida profesional, queda obsoleto rápidamente, tanto desde el punto de vista de tecnologías que se aprenden, como desde el punto de vista de qué tipo de empresa, qué tipo de gestión, qué tipo de mercado se toca.
Se calcula que, en estos momentos, una persona que empiece su vida profesional ahora, a lo largo de su vida cambiará, no de puesto de trabajo, sino de profesión, más o menos cuatro veces. Lo cual quiere decir que aquellas personas que sean capaces de redefinir lo que tienen que hacer, volver a aprender, volver a entrar en saber cómo hacer las nuevas tareas, nunca se quedarán obsoletas. Esto no es una simple cuestión de cualificación.
Aquí hay que diferenciar entre el nivel de educación y las cualificaciones. Las cualificaciones específicas, por ejemplo, lo que hacen las escuelas profesionales, incluso las mejores, las alemanas. Hoy día desaparece la cualificación rápidamente si sólo saben eso, si sólo saben lo que les enseña la empresa para lo que la empresa quiere.
Por ejemplo. En los años sesenta, cuando realicé mis estudios universitarios, aprendí a programar, sabía programar Fortrand 4 y Basic. Ahora no me sirve de nada. Afortunadamente los ordenadores son más fáciles de manejar mediante otras cosas. Lo que aprendí en informática, con un gran esfuerzo porque no era informático para nada, no me sirve absolutamente de nada, ni siquiera la lógica, porque la lógica es distinta, es una lógica en red, y no analógica matemática como la que se enseñaba en aquellos momentos.
Lo que importa, más que unas cualificaciones, es una capacidad general educativa de cultura general, de capacidad de asociación, de saber cuáles son las cualificaciones que necesitas para las tareas que tienes que hacer, dónde buscarlas, cómo aprenderlas y cómo aplicarlas. Para entendernos, un nivel intelectual general, lo cual implica toda una redefinición del sistema de educación: la capacidad social de hacer pasarelas entre el trabajo y la educación.
Junto a eso hay, lo que llamo un trabajo genérico -para provocar un poco con un término-, que es la gente que simplemente tiene sus capacidades humanas con un nivel de educación más o menos básico; que simplemente recibe instrucciones y ejecuta órdenes y que incluso no le dejan hacer más que eso.
Este tipo de trabajo es el trabajo que efectivamente puede ser eliminado fácilmente en función de una alternativa desde el punto de vista del trabajo, desde el punto de vista de la empresa. Este trabajo genérico coexiste con máquinas y coexiste con trabajo genérico en otros países, es el mismo mercado de trabajo. O sea, una empresa puede tener la opción: "O empleo a esta persona, o utilizo una máquina en lugar de esta persona, o traigo este producto producido por un obrero tailandés que me cuesta diez veces menos". En esa relación es donde hay una reducción de las capacidades de la fuerza de trabajo de este tipo, genérica, que pierde capacidad de negociación. Para entendernos, pierde valor.
Eso no quiere decir que puedan ser eliminados, pero es simplemente una relación de coste y beneficio, de cuanto trabajo genérico me hace falta en comparación con una máquina; en comparación con trabajo globalizado. O, qué combinación óptima de estos tres elementos me sirve. Ninguna empresa puede hacer un cálculo tan ajustado, pero lo hace el mercado por la empresa. Es decir, las empresas que más o menos intuitivamente encuentran la combinación óptima avanzan, y las que no, se hunden. Eso sería un poco esa división fundamental, que no es una división social, sino tecnológica, y por tanto no es una fatalidad. Se puede actuar sobre ella.
El impacto en el empleo
Aquí entraríamos en qué impactos sobre el empleo -sobre la creación de trabajo, en general- tiene este tipo de organización.
Una cuestión en la que soy bastante duro en todas mis investigaciones en España, por razones en el fondo políticas, es que las nuevas tecnologías y este nuevo sistema como tal, no produce paro. Las nuevas tecnologías no producen paro. En Europa hay una visión absolutamente equivocada, empíricamente equivocada. Que haya un paro estructural por razones tecnológicas, no es una cuestión de opinión.
Primero, observando los datos empíricos, lo que encuentro es que esta visión parece muy progresista, pero en el fondo es muy reaccionaria, porque quiere decir que la tecnología es un fenómeno natural y que nadie más tiene la culpa. Que los culpables no son las empresas, ni los trabajadores, ni los gobiernos. Que no es culpable la Unión Europea. Que nadie es culpable de nada. Simplemente hay un fenómeno natural llamado tecnología que llega y nos quita el trabajo. Tal planteamiento es absolutamente reaccionario, porque pretende hacer una catástrofe natural de lo que es un fenómeno social, que, como tal, puede gestionarse de forma diferente.
Empíricamente, la mayor parte de estudios que se han hecho -y han sido muchísimos- sobre la relación entre tecnología y pérdida de empleo, muestran que no hay relación.
Tampoco es cierto, como dicen los tecnócratas, que, por definición, las nuevas tecnologías crean más empleo. No es así. Depende. Depende de qué tecnología, de qué puesto de trabajo, de qué formación, de qué políticas de la empresa, de qué políticas del gobierno. Depende de todos esos factores. Para entendernos, el resultado final de millones de estudios empíricos es que no hay relación por sí misma entre tecnología y empleo. Depende de muchas otras cosas. Hay, pues, que actuar sobre las otras cosas, porque la tecnología es indispensable para lo que decíamos anteriormente.
Ahora bien, si se suma todo lo que estamos viendo -el más, el menos, el depende aquí, el depende allá- para saber si destruye empleo o no destruye empleo, el resultado global final, es que no. En último término el empleo aumenta, no disminuye.
Primero, está aumentado en el mundo. Ha habido un aumento extraordinario de empleo en el mundo en los últimos veinticinco años. Entre otras cosas porque la mujer -que ha estado siempre incorporada al trabajo, pero no al trabajo remunerado- ha entrado a nivel mundial en masa en el trabajo remunerado, no sólo asalariado, sino cómo pequeña empresaria también. Y ha absorbido el mercado de trabajo.
Segundo, el empleo industrial. Los datos de la OIT demuestran que en los últimos veinticinco años ha aumentado el 72%. Setenta y dos por ciento más de empleo industrial. Ha disminuido en términos absolutos en los países de la OCDE, simplemente porque el empleo se hace en la industria, pero en otro sitio. Se hace en China, se hace en Brasil, se hace en el sudeste asiático, se hace en Méjico. Y hay una reconversión.
Por cierto, la cuestión de que desaparece el empleo industrial en gran parte es un artefacto estadístico, porque llamamos servicios a cosas que son industria. A mi que me cuenten por qué el software no es una industria o por qué la producción de programas de vídeo o de televisión no es una industria, etc. O sea, cuando haces un diseño para un automóvil en la fábrica, en una empresa de automóviles, es industria, y cuando lo haces en una consultora, no es industria.
Las categorías sociales se polarizan
Uno de los grandes problemas que tenemos en estos momentos es que las categorías estadísticas con las que trabajamos son obsoletas, no son adecuadas a un sistema en que la información es central. Por tanto, todo lo que es información, pero que puede ser perfectamente industrial en el sentido tradicional del término, sigue creando empleo.
Sobre empleo en general, hay mucha más tecnología en producción y mucha más difusión de la tecnología en el conjunto de la sociedad americana y japonesa que en la Unión Europea, y sin embargo, EEUU y Japón son las sociedades -hablando de modelos diferentes, por cierto- que tienen el menor nivel de paro.
El nivel de paro en Japón está en torno al 3,4% y en EEUU al 4,9% en la última estadística. El nivel más bajo de los últimos veinte años.
La gente dice que el problema es que muchos tienen empleo, pero de vendedores de hamburguesas. Si tomamos las estadísticas americanas, haciendo un cálculo muy concreto que es dividir en tres niveles (salarios altos, medios y bajos) y ver qué proporción de los trabajadores está en cada uno de esos tres niveles en el año sesenta y en el año noventa y cinco, son los dos puntos de inflexión, no hay datos más recientes sobre ese tema.
En el año sesenta, el nivel alto de salarios incluía el 24% de la población americana y en el año noventa y cinco el 34%. El nivel de salario bajo comprendía el 30% en el sesenta, y en el noventa y cinco el 32%. También se incrementa, pero menos.
Lo que se hunde es el centro. Lo que hay es una polarización social, pero, sobretodo, aumento de nivel. Esto no quiere decir que la gente haya mejorado mucho, porque tu puedes estar en el tercio alto, pero cobrar menos que cobrabas, en términos reales treinta años antes y en realidad, excepto el 5% más elevado de la población de trabajo de EEUU, el resto ha perdido en valores reales.
Lo que quiero decir es que una cosa son los niveles de remuneración y estándares de vida, y otra cosa es si se crean o no puestos de trabajo de alto nivel o de bajo. La respuesta es que se crean proporcionalmente muchos más de alto nivel. No son los vendedores de hamburguesas, son los informáticos, son los analistas financieros los que más han crecido en términos de la masa del trabajo. Pero en términos relativos, desde luego, porque en términos absolutos pueden ser el 300% y ser cuatro.
Insisto en ese tema porque, os lo digo con toda sinceridad, estoy muy alarmado del crédito que se le ha dado en Europa a cosas como el libro de Jeremy Rifkin, eso del fin del trabajo, prologado por Michel Rocard, defendido por socialistas europeos. No todos.
El libro de Jeremy Rifkin, que se llama "El fin del trabajo", en EEUU nadie lo considera serio, ni en los medios académicos ni en los medios sindicales. Sin embargo, en Europa se le ha dado una gran importancia.
Tiene dos características, primero que no da ni un sólo dato. Hay que tener cara dura para decir que se acaba el trabajo y no dar ni un dato. Lo que da son recortes de prensa diciendo que tal empresa ha cerrado y ha echado a tantos. Hombre, pues sí, pero cabe matizar cuántos abren, qué otra empresa se crea, etc. Segundo, que proclama la idea de que se acaba el trabajo, que el trabajo lo destruye la tecnología y, por tanto, que hay que hacer otro modelo de sociedad.
Puedo estar de acuerdo y lo estoy, en que hay que hacer otro modelo de sociedad, pero no porque la tecnología destruye el trabajo, sino porque la tecnología nos permite trabajar menos y producir más. Esto lo ligo a un elemento que es un poco más propositivo, pero para ya entrar en la discusión.
El objetivo de las 35 horas
Muchas veces, en Europa, se liga a esta discusión el tema de las treinta y cinco horas. También estoy preocupado por esto, porque creo que el objetivo de las treinta y cinco horas es muy positivo como elemento de cambio de modelo de vida y como reivindicación social de los trabajadores. Pero en el sentido de que es una tendencia histórica. Desde hace cien años, la tecnología nos permite trabajar menos, producir más y vivir mejor. Esa es la tendencia histórica y hay que continuarla, porque el tiempo libre forma parte de la calidad de vida y de los derechos del trabajador. Pero no porque la tecnología destruya empleo y nos obligue a las treinta y cinco horas para repartir entre los demás el trabajo que queda. Ese argumento, en el fondo es muy peligroso, porque no va a funcionar así, porque no se crea empleo reduciendo el tiempo de trabajo.
Si se reduce el tiempo de trabajo la empresa tiene otras alternativas que no pasan necesariamente por crear empleo. Por ejemplo, aumentar la productividad, introducir nuevas máquinas, comprar productos en los mercados exteriores. Y depende.
Si se plantea como una solución al problema del paro, va a fracasar, porque las empresas van a estar en contra y, además, no va a funcionar en términos de creación de empleo.
Hay quienes dicen: "Tampoco lo creo, más bien va a dañar el empleo". La patronal francesa ha hecho una gran ofensiva en estos momentos, pues piensa que esto destruye el empleo más que crearlo. Creo que también es exagerado, creo que es interesado. Pero, en lugar de plantearlo como una política de creación de empleo, hay que plantearlo como una política de mejora de las condiciones de vida de la gente, es decir, que cuando la gente trabaje menos pueda trabajar con el mismo salario.
¿Qué ocurre con este impacto tecnología-nueva economía en el empleo? ¿No tiene efectos? Pues sí, tiene muchísimos y muy importantes, pero no la creación de paro en sí. Hay paro, hay un nivel de paro muy importante en Europa Occidental, en Europa Oriental y en Europa Central por cuestiones macroeconómicas o institucionales. No por cuestiones ligadas a la tecnología.
En cambio, lo que sí hay son impactos muy importantes sobre el tipo de trabajo, el tipo de relaciones laborales derivados de este nuevo modelo, que es el modelo que está difundido a nivel mundial. Es, sobre todo, la flexibilidad estructuralmente determinada de la fuerza de trabajo y de la relación trabajador-empresa. Todos los argumentos que os he presentado antes apuntan hacia lo mismo, al hecho de que las empresas tienen la capacidad y la necesidad, a través de la competitividad, de emplear trabajadores de distintas formas, en distintos tiempos, con distintas situaciones laborales.
Esta flexibilidad extrema, que permite la tecnología, impone las condiciones constantemente cambiantes de unos mercados globalizados por vínculos sucesivos. Por tanto, lo que sí se está produciendo es el proceso que llamo de individualización de la relación entre trabajador y empresa y de la individualización del trabajo.
La revolución industrial consistió en sacar campesinos de sus campos y artesanos de sus talleres y hacer de ellos trabajadores asalariados en la gran empresa, en las grandes corporaciones, etc. Incluso hay una vieja frase marxista que dice: "El capitalismo organiza a la clase obrera". Creo que es un poco mecánica, pero bueno, responde al hecho de que el capitalismo acababa produciendo.
En estos momentos el capitalismo desorganiza a la clase obrera. Es decir, es el proceso inverso, desde el punto de vista estructural. Eso no quiere decir que sea una inevitabilidad, pero si miramos los datos, lo que está produciéndose es un cambio sustancial de las relaciones laborales en todos los países. Por ejemplo, estudios hechos con un colega de Stanford, Martin Carnoy, que se han publicado ahora en la OCDE, sobre lo que llamamos la "flexibilidad sostenible", en que, primero, presentamos los datos de transformación del mercado laboral.
Si definimos el trabajo estándar como el trabajo de un trabajador con contrato indefinido a tiempo completo en una empresa o en una administración y que tiene, más o menos, una trayectoria profesional previsible. Si utilizamos tal definición como modelo estándar de organización y trabajo, nos equivocamos. En estos momentos en el Reino Unido, la cuna de la Revolución Industrial, el 52% de la fuerza laboral no corresponde a este modelo, corresponde a trabajos a tiempo parcial, trabajadores temporales y autónomos. En estos momentos casi el 20% de la fuerza laboral en el Reino Unido son autónomos y en Italia el 25%. Hay una explosión del trabajo autónomo, todos consultores de todos. En Francia en este momento el trabajo no estándar es, más o menos, el 35% (por no estándar añado todo esto, que no es el modelo antes expuesto). En EEUU es casi el 40%.
Holanda, es el país modelo de creación de empleo, en este momento en la Unión Europea. Ya sabéis que el tema de Holanda es que es trabajo a tiempo parcial, y que lo que ha habido es una entrada masiva de mujeres en el mercado del trabajo holandés. Ha subido la fuerza laboral, pero en base a trabajo a tiempo parcial. En EEUU la mayor empresa es Manpower, la empresa de trabajo temporal que emplea un millón de personas. Un millón de trabajadores trabajan en Manpower, pero no trabajan, sino que alquilan su mano de obra. En España las cosas son más complicadas, pero como sabéis la inmensa mayoría de contratos que se hacen en España son contratos no de carácter indefinido. Los de carácter indefinido son menos del 10%. Y, en Cataluña un dato que me pareció bastante significativo, es que el año pasado, por primera vez, se crearon más puestos de trabajo autónomos que asalariados. En Cataluña, que es la comunidad más dinámica de España en estos momentos.
Esta es la verdad razonable, aquí sí que hay un pacto decisivo que va en el sentido del nuevo tipo de economía, del nuevo tipo de tecnología y que realmente transforma las relaciones laborales. Esto tiene dos caras, o tres caras, si queréis.
La nueva relación laboral
Por un lado, y desde el punto de vista de eficiencia, de productividad y de competitividad de las empresas, incrementa esta gran flexibilidad, incrementa productividad, permite una asignación más racional de recursos, permite desarrollar una capacidad de intervención en el mercado de forma más estratégica. Es decir, hay todas las ventajas de la flexibilidad.
Ahora bien, esto tiene tres caras. El fenómeno, por un lado, incrementa la flexibilidad, incrementa la eficacia de las empresas, permite reciclar constantemente fuerza de trabajo, pero tiene tres grandes problemas.
El primero es un problema propiamente desde el punto de vista de la empresa, que es la contradicción, si no se soluciona, entre productividad y flexibilidad en un sistema de trabajo precario. Y es lo siguiente: la OIT me pidió hace dos años un informe sobre esto, se lo hice, se discutieron en asambleas de la OIT, provocó una gran discusión porque lo que planteaba era muy sencillo, pero muy devastador para las empresas, no sólo para los trabajadores. Es lo siguiente. Gran parte de la productividad de la fuerza de trabajo depende, en primer lugar, de la información y del procesamiento de la información y, segundo, de la capacidad del trabajador, de su conocimiento específico de la empresa y de los procesos de la empresa.
En esto hay un especialista japonés, Nonaka, que ha hecho grandes estudios empíricos que muestran que gran parte de la productividad de las empresas japonesas depende de lo que él llama el conocimiento no explícito, que es el conocimiento que tiene un trabajador de qué pasa en la empresa, de qué pasa en un proceso de trabajo, de qué pasa en una cadena de montaje.
Los famosos grupos de calidad y los de trabajo en equipo consisten en eso, en que los trabajadores se reúnen y hacen explícito el conocimiento implícito que el trabajador tiene de la empresa.
Por tanto, hay algo que es más que la tecnología, que es la capacidad de adaptarse a un proceso, que se obtiene por eso que hemos llamado la experiencia de la empresa. Eso requiere algo, requiere una condición social de que el trabajador tenga interés en comunicar ese conocimiento dentro de la empresa. Si el trabajo es precario, si su conocimiento es su capital, ese conocimiento se lo guarda y lo va dando poco a poco en distintas empresas y de distinta forma.
Por un lado, pierde conocimiento específico si cambia de empresa, por otro lado, el capital profesional que va adquiriendo, que es suyo y que no es simplemente un nivel tecnológico, sino una experiencia, se lo va guardando como moneda de negociación para las próximas relaciones laborales.
Por tanto, baja la productividad de cualquier trabajador, y estudios empíricos lo demuestran: a menor implicación y menor duración en la empresa, menor productividad. Por consiguiente, hay una contradicción entre flexibilidad y productividad.
Segundo problema, ya a nivel no de empresa, sino de la sociedad en general. La capacidad de individualización de la fuerza de trabajo hace que los trabajadores puedan tener una relación muy individualizada, en función de sus características con su empleador, o con su contratante, cuando son consultores o autónomos. Aquellos trabajadores con altas cualificaciones y poder de mercado pueden incluso salir mejor, pero todos aquellos que no tienen un poder individual del mercado, al ser individuos, e individuos genéricos, reemplazables o no por máquinas o por trabajo importado de otras partes, pierden capacidad de negociación, porque "si no quieres tú, mira la cola que tengo". Esto está en la base del fenómeno de incremento de desigualdad social y de incremento de polarización. Polarización es que los ricos son más ricos y los pobres son más pobres. Desigualdad es que hay más desigualdad, aunque a lo mejor todo el mundo podría ser más rico. Están produciéndose a nivel mundial los dos fenómenos: mayor desigualdad y mayor polarización.
La individualización del trabajo
Tercero, el tema también fundamental es que con una fragmentación de las empresas en redes y con una individualización creciente del trabajo y de los trabajadores la capacidad de diferenciación de la fuerza de trabajo es tal que la capacidad de agregación de las relaciones laborales disminuye, tanto por parte de los sindicatos, como las relaciones entre sindicatos y empresas. Para entendernos, es muy difícil mantener la agregación de la fuerza de trabajo a nivel de negociación colectiva cuando la negociación se individualiza. Con lo cual se está produciendo en todos los países una fuerte baja de afiliación sindical y además, ha habido, como sabéis, operaciones ya directamente políticas de disminuir el poder sindical en todos los países.
Aparte de que uno esté afiliado o no a un sindicato, esto plantea dos grandes problemas: uno, que se socava una de las instituciones centrales del pacto social y del consenso social y político de nuestras sociedades, que es un sistema de relaciones industriales estable, conflictivo, y que siempre tiene que ser conflictivo, pero a partir del sistema de instituciones, de acuerdos, etc. Dos, que no solamente se socava la relación sindicatos-trabajadores, sino que se socava las bases financieras y organizativas del Estado de bienestar, porque en la medida en que la relación del trabajador a la empresa es individual y las cotizaciones de seguridad social son individuales, hay una relación cada vez más distante entre la cotización de ese trabajador y el sistema general de seguridad social: "¿Por qué si tengo mucho más salario que tú voy a recibir las mismas prestaciones?" Es decir, la diferenciación de situaciones laborales y de salarios repercute en la diferenciación de contribuciones a la seguridad social que, en cambio, va a responder con un sistema bastante homogéneo de prestaciones. Y ahí se empiezan a aborrecer las solidaridades.
No hay más que ver lo que está pasando. Acabo de volver de Finlandia, de los Países Escandinavos donde las clases medias y medias-altas dicen: "No, no, nosotros no queremos contribuir de esta forma". Empieza a haber toda forma de fraude, a hacerse autónomos y luego contratar por la empresa para escapar de la cotización a la seguridad social general, con lo cual lo que era un movimiento desde la producción de individualización de la relación laboral, se amplia con un movimiento desde la financiación de las cargas sociales de la gente más privilegiada. Para entendernos, se busca sistemas individualizados de cotización, que quiere decir autonomía de la relación laboral. Con lo cual, el conjunto del beneficio de las relaciones industriales y del Estado de bienestar entra en crisis potencial, no solo de financiación, sino de solidaridad social. Resultado: efectos negativos sobre los trabajadores y las relaciones industriales. Absolutamente.
Hacia un nuevo Contrato Social
No son los efectos del paro masivo. Son este tipo de efectos que, en mi opinión obligan a una redefinición de las relaciones laborales. Redefinición en la que, en mi opinión, no sólo están interesados sindicatos y trabajadores, sino la sociedad en general, porque donde estamos yendo no es únicamente a la pobreza, como se dice de EEUU, y a la exclusión social. Ese me parece un buen argumento, pero al 80% de la población le da igual. EEUU admite: "-¿Cómo la gente puede vivir con un 20% de excluidos de la sociedad?" "-Bueno, porque esos no votan, no hacen nada y el 80% está en la otra dinámica". Las cosas son así de duras.
Pero hay algo general en términos de impacto, que es el conjunto de instituciones que permiten la convivencia social y no una sociedad de individuos en competitividad y agresividad constante los unos contra los otros.
A través de esa disolución, lo que perdemos son las instituciones de agregación social y pasamos a una sociedad formada por redes de individuos, lo cual implica toda clase de cosas. Este es un poco el tipo de tratamiento que podríamos discutir.
Personalmente, estoy preocupado por intentar encontrar fórmulas de reconstitución del tejido social, de reorganización de un Contrato Social, etc., pero prefiero que hablemos juntos para intentar darle al problema una solución. Aunque tenemos un problema. Los datos están ahí y los podemos ampliar.
Manuel Castells
Profesor de investigación en el Instituto de Estudios Sociales Avanzados (CSIC) de Barcelona.
Su último libro: "La Era de la Información". Alianza Editorial 1997-1998.
Este artículo es el primer capítulo del libro "Globalización, tecnología, trabajo, empleo y empresa", que se publicará, en breve, dentro de la colección "Los libros de la factoría".
___________________
La ciudad de la nueva economía
MANUEL CASTELLS
Voy a intentar situar el papel que están cobrando las ciudades en un proceso de cambio histórico, que se caracteriza, de forma descriptiva más que analítica, bajo el término de “Era de la Información”. Para tratar de concretar más esta problemática, que puede ser excesivamente vaga, incluso ideológica, me voy a referir muy específicamente a las condiciones en que se desarrolla lo que se ha dado en llamar “la nueva economía”, centrada a partir de la transformación tecnológica y organizativa, y tras sintetizar cual es esta transformación, trataré de analizar más específicamente cual es el papel de las ciudades en esta nueva economía y, aún más, en la relación, problemática, que se establece entre esta nueva economía y los procesos sociales e institucionales que están en la base de nuestra convivencia y de nuestra vida.
En primer lugar déjenme resumir qué entendemos por “la nueva economía”. La nueva economía es un término que está consagrado en los medios de comunicación y por tanto, más que intentar siempre redefinirlo, cambiar las palabras y decir “no, no es la nueva economía, es otro tipo de economía”, prefiero, en general, ir con lo que se comunica, ir con la comunicación, pero, darle un contenido preciso y analítico.
¿Qué es concretamente la nueva economía? Para empezar, la nueva economía es la nuestra, es en la que estamos ya. No es el futuro, no es California, no es América,... es la nueva economía que se desarrolla de forma desigual y de forma contradictoria, pero que se desarrolla en todas las áreas del mundo.
La economía del conocimiento
Se caracteriza fundamentalmente por tres grandes rasgos interrelacionados:
Es una economía que está centrada en el conocimiento y en la información como bases de producción, como bases de la productividad y bases de la competitividad, tanto para empresas como para regiones, ciudades y países. Esto se dice pronto pero tiene grandes consecuencias, porque el tratar de cómo se genera productividad quiere decir cómo generamos riqueza, que en el fondo es la base material para lo que luego podamos hacer. Por ejemplo, reforzar el Estado de bienestar y ampliar la protección social en lugar de desmantelarlo. Esto que parece un problema difícil de resolver en una época de crecientes problemas sociales. En el momento en que hay más abundancia, no hemos resuelto los problemas, porque más recursos se pueden utilizar para hacer la guerra en lugar de para hacer el amor, pero por otro lado, sin los recursos, todos los problemas se hacen extremadamente más angustiosos. Por consiguiente, generar fuentes de productividad es un tema absolutamente esencial y, en este sentido, la nueva economía está por fin permitiendo prever la posibilidad de un salto histórico en la relación entre forma de actividad económica y generación de riqueza.
Hablando claro, lo que se esperaba desde hace tiempo, que ya había analizado junto con otros economistas y sociólogos desde hace 5 o 6 años, la idea de que la revolución tecnológico-informacional, a partir de un determinado momento y a partir de una cierta transformación organizativa de empresas y cultural de sociedades, podría empezar a proporcionar el dividendo de productividad, se está observando estadísticamente. Se está observando pese a la debilidad de nuestras categorías estadísticas procedentes de la sociedad industrial. Pero, en estos momentos podemos, sobretodo en Estados Unidos, porque ha habido unos pequeños cambios de categorización estadística que han permitido ya, sólo con estos pequeños cambios, medir algo mejor lo que se estaba produciendo. En Estados Unidos, en el año 99 la productividad ha crecido, en promedio, al 2,9%. En los últimos seis meses ha crecido al 5%. Un incremento del 5% de productividad, sobre tasa anualizada, es realmente espectacular; es más del doble de lo que se produjo en los años gloriosos de crecimiento económico de los 60. En Europa, en cambio, la productividad se está manteniendo, en los últimos dos años, entorno a una tasa media de crecimiento, en la Unión Europea, del 1,9%.
Simplemente pasando al promedio anual americano, creo que puede ser más alto: un punto más. Un punto más, en los próximos diez años, quiere decir que cambia todo y que por ejemplo, en Estados Unidos, hoy día, cuando hace 5 o 6 años la discusión era si se quebraba la Seguridad Social o no, en estos momentos la discusión es para que se utilizan los billones de 12 ceros de dólares, si para pagar la deuda nacional, cosa que nunca se había planteado en ningún país en la historia, o para asegurar la Seguridad Social en los próximos 30 años. Eso no impide que 45 millones de americanos no tengan seguro de salud y que un niño americano de cada cinco viva en la pobreza.
Pero ahí entramos en el problema de redistribución social, en el problema de desigualdad y de competitividad individual salvaje. Ahora más que nunca es una sociedad injusta, la sociedad americana, porque precisamente en estos momentos hay la capacidad, puede haber la capacidad de desarrollo de productividad. Este es un tema central para todo el mundo.
Una economía global
En segundo lugar, no insistiré pero hay que mencionarlo, esta economía basada en la productividad generada por conocimiento e información, es una economía global. Global no quiere decir que todo esté globalizado, sino que las actividades económicas dominantes están articuladas globalmente y funcionan cómo una unidad en tiempo real. Y, fundamentalmente, funcionan entorno a dos sistemas de globalización económica: la globalización de los mercados financieros interconectados, en todas partes, por medios electrónicos y, por otro lado, la organización a nivel planetario de la producción de bienes y servicios y de la gestión de estos bienes y servicios.
Les recuerdo para marcar algunas ideas, que cuando se está discutiendo, sobretodo, la internacionalización del comercio es, en realidad, una función de la internacionalización de la producción, o sea, más que exportar, lo que se está haciendo es producir internacionalmente.
Las 53.000 empresas multinacionales y sus 415.000 subsidiarias organizan, en estos momentos, el 25% del producto bruto mundial en términos de producción, representan más o menos un 75% del comercio internacional incluyendo un 40% del comercio mundial que se realiza al interior de firmas y de sus empresas subsidiarias. Por tanto, cuando estamos haciendo grandes batallas sobre el comercio internacional, lo que realmente ha ocurrido es que hemos internacionalizado la producción, y es a través de estos circuitos donde se está generando la articulación económica planetaria. Por eso, el proteccionismo tiene cada vez menos sentido, porque ya están las empresas funcionando de forma transnacional y mucho más, obviamente, en sistemas cómo la Unión Europea.
La tercera característica, indispensablemente ligada a estas otras dos, es el hecho de que es una economía que funciona en redes, en redes descentralizadas dentro de la empresa, en redes entre empresas, y en redes entre las empresas y sus redes de pequeñas y medias empresas subsidiarias. Es esta economía en red la que permite una extraordinaria flexibilidad y adaptabilidad. Es, por tanto, una economía informacional, es una economía global y es una economía organizada en red, y ninguno de esos factores puede funcionar sin el otro. Por tanto, no es sólo una economía del conocimiento, es una economía algo más compleja y eso es lo que se llama la nueva economía.
Internet es una forma de organización
Esta economía tiene una base tecnológica. Esa base tecnológica es tecnologías de información y comunicación de base microelectrónica y tiene una forma central de organización cada vez mayor, que es Internet. Internet no es una tecnología, Internet es una forma de organización de la actividad. El equivalente de Internet en la era industrial es la fábrica: lo que era la fábrica en la gran organización en la era industrial, es Internet en la Era de la Información. La nueva economía no es las empresas que hacen Internet, no son las empresas electrónicas, son las empresas que funcionan con y a través de Internet. Y si quieren les pongo un ejemplo, porque si no parece demasiado abstracto. Podría poner ejemplos más, digamos, cercanos a la realidad catalana o europea, pero prefiero ilustrar las ideas. Quiero tomar un ejemplo de una empresa concreta. Lo mismo que en la forma de organización de la era industrial se tomó como ejemplo, como símbolo en cierto modo, la organización de la producción en la empresa “Ford”, hasta el punto que ciertos economistas acuñaron el término fordismo y postfordismo, etc. No estuve muy de acuerdo con ésta terminología, es demasiada gloria para Ford. En todo caso lo hubiera llamado ford-leninismo, porque Lenin admiraba profundamente el sistema de Henry Ford y organizó la producción soviética en torno al mismo modelo.
Pero si tratamos de hacer el mismo sistema, el mismo ejemplo, hoy día encontraremos una empresa que se llama Cisco Systems. Es una empresa de Silicon Valley, en California, que produce los commutadores y los routers, que son los sistemas de dirección de los flujos de internet. Para entendernos, es, un poco, la fontanería de Internet, son los equipamientos de fontanería de Internet. Venden el 80% de estos equipamientos en el mundo. Cisco Systems funciona de la forma siguiente: tienen un website en que hay una serie de ofertas tecnológicas de productos y de soluciones de ingeniería a estos productos. Las empresas que quieren instalar sus sistemas de Internet se van a este website y expresan, a partir de lo que hay allí, sus necesidades, las necesidades de lo que quieren comprar, que no tiene que ser uno de los productos o la combinación, sino dicen: “éste es el tipo de producto que queremos, con estas características y estas necesidades”, y esa información pasa a los proveedores de Cisco Systems.
Un caso concreto
Cisco es una empresa industrial, manufacturera, fabrica, pero no tiene fábricas. Tiene, en realidad, una fábrica y 29 fábricas, privilegiadas, que no forman parte de Cisco Systems. Estas fábricas van, también, al webside y miran que está pidiéndose en ese día y en esa hora, y con qué características técnicas. Y, entonces, ofrecen productos que se adaptan a la especificación técnica de Cisco Systems, a lo que esas fábricas pueden producir indicando en qué tiempo y con qué costo, resultará lo que los clientes están pidiendo. Y a partir de ahí se realiza la transacción. El 85% de las operaciones de Cisco Systems pasan por el webside y el 50% de las ventas se realizan sin ninguna intervención de los ingenieros de Cisco Systems. Entonces, ¿qué vende Cisco Systems? Vende conocimiento, pero no sólo conocimiento tecnológico, sino conocimiento de aplicación de ingeniería y conocimiento de qué tipo de proveedores existen en el mundo. El webside se actualiza cada día y a veces cada hora. O sea, capacidad de adaptación en base a conocimiento e información.
La empresa Cisco Systems parece una empresa que, en términos de empleo, no es tan grande, tiene 25.000 empleados, tan sólo, la mitad en California, pero cabe subrayar:
Uno: vende el 80% del equipamiento de base de internet.
Dos: La capitalización de Cisco Systems, que fue una empresa que empezó hace 14 años con dos millones de dólares de capital inicial, en estos momentos, es de 310.000 millones de dólares en cotización de la semana pasada, que para darnos una idea, es cinco veces el valor de mercado de General Motors. O, si quieren, en otra estimación, 6 veces el valor de mercado de Boeing.
Se puede decir: “sí, pero están sobreevaluados”. Están sobreevaluados pero con su valor se han comprado 20 empresas en el último año, entonces, la sobreevaluación se convierte en patrimonio real.
Les pongo éste ejemplo porque estoy intentando pasar del modelo “Ford” al modelo Cisco. Y “Ford”, también, “Ford”, cómo saben ustedes, el mes pasado distribuyó créditos a sus empleados, les regaló ordenadores personales, tiempo de Internet y cursos de formación para trabajar en Internet. “Ford” ahora adopta el modelo Cisco. Éste modelo es el modelo que se está desarrollando en todas las actividades. El señor Martí Parellada nos contaba la existencia del lanzamiento de un nuevo sitio en Internet: “todoelmarisco.com”. Perdonen por la publicidad. En el que ustedes organizan su mariscada y ellos se la traen a casa. Y, obviamente, ellos seguro que no producen marisco, como la gente que maneja Amazon no han leído un libro en su vida, probablemente porque estaban demasiado ocupados en construir el webside de Internet. Tengo alguna base empírica para poder decir esto.
Permítanme fijar dos ideas:
Una: Este tipo de actividad y de trabajo es generalizado, es de toda la economía y son todas las empresas que están evolucionando en esta dirección. No se trata solamente de que todas utilicen Internet, sino de que se organizan entorno a la red de relaciones, que esta electrónicamente conectada y basada en la información.
¿Por qué esa nueva economía es y será mundial y no simplemente norteamericana? Muy sencillo, porque por competencia global, las empresas que no funcionen así serán eliminadas. La comparación con la era industrial es: producir con electricidad o sin electricidad.
Acabo de llegar de Lisboa, de una reunión de la presidencia portuguesa de la Unión Europea y las conclusiones de esa reunión fueron éstas: que Europa entra de lleno en la nueva economía y que el gran desafío, el gran reto, es cómo las instituciones europeas y el modelo social europeo se adaptan, no para servir a la nueva economía, sino para que la nueva economía sirva al modelo social y político europeo. Creo que es el gran reto.
La nueva economía es global pero no todas las instituciones tienen que ser cómo Silicon Valley y no todas las sociedades tienen que ser cómo California, afortunadamente.
El papel de las ciudades
En ese sentido, ¿qué papel juegan las ciudades en medio de esta transformación?, que me parece absolutamente histórica, no en términos ideológicos, sino en términos de lo que estamos observando. Creo que, de entrada, las ciudades van a jugar un doble papel que trataré de detallar.
Esa nueva economía es, por un lado, una economía de extraordinaria capacidad de generación de riqueza, pero es una economía centrada, en estos momentos, en el desarrollo de redes entre individuos y empresas extremadamente competitivas sin ninguna relación al interés público, al bien común, a lo que sean valores que no puedan ser capitalizados en el mercado. Entonces, mi tesis general, que ahora voy a tratar de analizar en concreto, es que las ciudades son claves tanto como productoras de los procesos de generación de riqueza en el nuevo tipo de economía, como productoras de la capacidad social de corregir los efectos desintegradores y destructores de una economía de redes sin ninguna referencia a valores sociales más amplios, más colectivos o no medibles en el mercado, como por ejemplo la conservación de la naturaleza o la identidad cultural.
En concreto, ¿qué quiere decir esto? En primer lugar, las ciudades son, empíricamente, los medios de innovación tecnológica y empresarial más importantes. A principios de los 90, junto con otro colega, nos recorrimos el mundo (una paliza y no se crean tan agradable, porque en esos casos lo único que se ven son empresas tecnológicas y aviones y trenes de alta velocidad) y observamos cuales eran, donde estaban realmente los medios de innovación tecnológica. Los medios de innovación tecnológica, casi sin excepción, son grandes áreas metropolitanas con ciudades potentes impulsando esas áreas metropolitanas, empíricamente hablando. No encontramos, ningún caso de un medio de innovación tecnológica o empresarial que se hubiera desarrollado de forma nueva, en pleno desierto, en relación con un proyecto voluntarista de gobierno: simplemente no existen. Existen algunos parques tecnológicos con éxito, pero no medios de innovación realmente generadores de riqueza.
Desde entonces han habido dos de los lugares observados como embriones posibles, que se han desarrollado con mayor nivel de innovación. Uno es Cambridge, en el Reino Unido, y otro es el parque de Hsin-chu, relativamente cercano a Taipei, Pero en realidad Hsin-chu está a 70 Km. de Taipei y es parte de la área metropolitana de Taipei, y Cambridge, por mucho que digan que no, es parte de Londres. Con lo cual, en buena medida, son áreas tecnológicas desarrolladas y ligadas a grandes áreas metropolitanas. Como Silicon Valley es una área metropolitana, que está separada de San Francisco, pero que está ligada a San José, que es más grande que San Francisco. En este momento San José tiene 1.100.000 habitantes y San Francisco 700.000.
El primer elemento es que estos medios de innovación metropolitanos, son esenciales porque, a través de la sinergia que generan, de las redes de empresas, de innovaciones, de capital, atraen continuamente los dos elementos claves del sistema de innovación, que son la capacidad de innovación, es decir, talento, personas con conocimiento e ideas, y atraen capital, sobretodo capital riesgo, que es el capital que permite la innovación.
Por ejemplo, ¿porqué Silicon Valley sigue siendo la punta de la innovación mundial? No por las cosas que hacía en los años 80, sino porque en los años 90 se ha vuelto a renovar. ¿Cómo se ha vuelto a renovar, cuando ya había agotado toda la capacidad de innovación que existía en California? Silicon Valley está importando cientos de miles de ingenieros y técnicos avanzados de China, India, Rusia, Taiwan, etc. El estudio que hicimos en nuestro departamento el año pasado muestra que de las nuevas empresas creadas en Silicon Valley, en los años 90, el 30 % son creadas y dirigidas por chinos o indios. Capital que apuesta sobre el talento y talento que llega desde donde sea.
Esto es un medio de innovación, y un medio de innovación es un centro de atracción, con lo cual observamos que esta economía global tiene nodos, tiene concentración territorial. Estos medios de innovación están territorialmente concentrados. Para hacer algo hoy día en tecnología, hace falta esta capacidad en tecnología y en innovación empresarial, hace falta estar en ciertos medios de innovación que después se articulan a través de redes de telecomunicaciones en el conjunto del mundo.
Hace tres semanas, Newsweek sacó un número especial sobre el desarrollo de la nueva economía en Europa y señaló 14 puntos que son grandes áreas de innovación, y que están convirtiéndose en los centros motores de la nueva economía en Europa. Todas grandes áreas metropolitanas y con Barcelona en el noveno lugar. Madrid no está en la lista. Barcelona, sí: como economía dinámica y uno de los más rápidos desarrollos de empresas Internet en Europa, etc. Lo digo para señalar la verificación empírica de que son los medios de innovación territorialmente concentrados en torno a ciudades dinámicas, los que constituyen las fuentes de riqueza en la nueva economía.
El conocimiento está en las personas
Entremos un poco más en por qué es así. Creo que, por un lado, hay la idea de que lo que llamamos conocimiento, información, no es abstracto. Está depositado materialmente en cerebros y los cerebros, generalmente, suelen ir unidos a personas. Por consiguiente, son trabajadores de alta cualificación. Son innovadores capaces de tener ideas y aplicarlas, los que constituyen, realmente, la materia prima de esta nueva economía. Pero desarrollemos la idea. Si lo que importa son personas de alta capacidad intelectual y de conocimiento, ¿cómo se producen estas personas? No se generan por razones genéticas, ¿cierto?
Fundamentalmente, hay tres elementos. El primero es la educación. Pero la educación no es solamente el poner al niño en la escuela o que haya buenas escuelas. La educación, en primer lugar, es que a partir de un desarrollo del sistema educativo, sea una educación capaz de producir gente con autonomía de pensamiento y con capacidad de autoprogramación y de adquisición de conocimientos el resto de su vida. Pero es más, es algo que en Barcelona han desarrollado ya hace tiempo y que es el concepto de ciudad educativa: no es solamente la escuela cómo elemento de educación, sino es la idea del conjunto de una sociedad local, a través de una serie de interacciones, incluyendo actividades culturales, incluyendo relaciones con los medios de comunicación, incluyendo elementos de animación ciudadana. Es el conjunto del sistema de relaciones sociales locales que produce un sistema de información interactiva, que desarrolla la capacidad educativa en un sentido amplio y no simplemente de adquisición de conocimientos.
Un segundo elemento: servicios públicos que funcionen. Michael Cohen señala que por mucho Internet que se desarrolle y mucha inversión que haya en las ciudades, si luego los transportes no funcionan o hay inundaciones, Internet no resuelve estos problemas. Por consiguiente, la calidad de los servicios públicos y, en concreto, de los servicios públicos municipales, es absolutamente decisiva para que todo lo demás funcione.
En el famoso Silicon Valley acaba de hacerse una encuesta que indica que el 80% de la gente está entusiasmada con su trabajo, con su dinero, con todo esto. Pero el 80% de gente dice que no soporta la vida en Silicon Valley, porque tienen que pasarse tres horas y media al día en los atascos del tráfico, porque no pueden respirar, porque están aislados, porque es el individualismo feroz, porque la familia se hunde. Es decir, una total insatisfacción con todo lo que no es el trabajo y el dinero. Trabajan cada vez más y viven encerrados en su trabajo y comiendo comida china que les traen por Internet. Pero, fundamentalmente, el deterioro de todo lo que es colectivo acaba impactando sobre la productividad del trabajo.
Y en tercer lugar, en términos más amplios, no son los servicios públicos sino la calidad de vida, en el sentido amplio. Hay una serie de investigaciones que muestran como la calidad de vida hace dos cosas en los medios de innovación. Por un lado, atrae gente a los medios de innovación, es decir aquellos medios de innovación que ofrecen poca calidad de vida no son capaces de atraer, con respecto a otros, el nuevo talento que es necesario. Y segundo, una vez que se está en un lugar, hay que retener ese talento y, además, hacer posible que ese talento sea capaz de aplicaciones tecnológicas y empresariales no totalmente destructivas y no totalmente neuróticas, que tienen, en buen sentido, una relación directa con la calidad de vida. En términos sintéticos, existe un efecto retroactivo de calidad de vida sobre productividad y de productividad sobre calidad de vida. Es un efecto virtuoso: calidad de vida urbana y metropolitana y su efecto sobre la productividad y la creación de riqueza.
Ciudad y universidad
Otro elemento que es fundamental, en este sentido, es la relación entre ciudad y universidad en la nueva economía. Parece obvio que las universidades son un motor de crecimiento económico, tecnológico y empresarial, pero también, son un factor de creación de ciudad. Hoy día, la universidad no es un elemento más. Es un elemento esencial de la dinamización del tejido urbano, a la vez que un elemento esencial de la producción de mano de obra cualificada, de innovadores y de personas con ideas nuevas. Esta nueva economía no es simplemente de gente que hace electrónica, es de gente que aprende a pensar o enfocar las cosa de forma nueva. Y esto depende de la calidad del sistema de educación universitaria. Por cierto, que, en este sentido, se está imponiendo cada vez más la idea de la importancia de los campus urbanos como elemento, a la vez, de dinamización y de absorción de ideas de un tejido social más amplio que el de la propia universidad. Por campus urbanos quiero decir campus, también.
La idea de universidades con facultades distribuidas en el conjunto de la ciudad, no parece eficaz. Históricamente, se produce así en muchas ciudades y se puede tener una buena universidad en esos términos, pero la dispersión hace que el trabajo interdisciplinario, la fusión de enseñanzas de distinto tipo, tenga mucha mayor dificultad. Es mucho más difícil para los estudiantes tomar materias de distintas facultades, que es un elemento fundamental de la nueva universidad. Es mucho más difícil para los colegas articularse entre ellos.
Por tanto, la noción de campus sigue siendo una noción productiva en términos culturales y de innovación pero, al mismo tiempo, la integración de ese campus en tejidos urbanos densos parece que también es el elemento que se está señalando como de mayor productividad cultural y, a la vez, urbana.
La cuestión de cómo estimular territorialmente esos medios de innovación a los que me he referido antes, parece ir en sentido contrario a los llamados parques tecnológicos. Me explico, porque es un tema que he trabajado bastante y, en particular, en España.
En primer lugar, la mayor parte de parques tecnológicos, de tecnológico tienen poco. Son, generalmente, o bien viejas operaciones de tipo zonas industriales o, en la mayor parte de los casos, operaciones inmobiliarias con un añadido de prestigio ideológico. Pero, más aún, diría que, aparte de esto, que es una crítica que ya se ha hecho muchas veces, hay algo más. Que es que la problemática de parques tecnológicos de los años 80, no es aplicable en el año 2000, incluso ya en los últimos años de los 90, porque en este momento no se trata tanto de hacer hard como de hacer soft. La idea no es poner más fábricas de microelectrónica. No tiene ningún sentido añadir más fábricas de microelectrónica a las que ya existen en los lugares que ya se han especializado en microelectrónica. Dejemos, en cierto modo, que los japoneses hagan microelectrónica o que las grandes empresas multinacionales estén trabajando en microelectrónica en Asia del sudeste.
Lo que hoy día cuenta es la capacidad de acción tecnológica sobre aplicaciones, sobre sistemas de software avanzado y sobre tecnologías de redes de todo tipo: tecnologías de telecomunicaciones. La gran frontera, a la que ya se ha llegado, es el Internet móvil. Son los temas de telecomunicaciones y de transmisión y procesamiento electrónico en tecnología móvil. Éste tipo de acción no se soluciona con parques tecnológicos donde se puedan concentrar grandes instalaciones industriales, son medios de innovación intensivos en inteligencia más que intensivos en edificios. Y el tema ahí, consiste en buscar las formas de articulación entre el territorio y estos mecanismos de innovación, mucho más sutiles, mucho más ligados a la dinámica propia de la innovación y, en particular, de la innovación de pequeñas y medias empresas. Y, también para fijar las ideas, dos ejemplos: uno negativo y otro positivo.
El mayor fracaso de desarrollo tecnológico territorial de los último 5 años es el llamado “ corredor multimedia” de Kuala Lumpur en Malasia, en donde se han gastado miles y miles de millones de dólares en crear una megaestructura absolutamente futurista para atraer grandes fábricas. Con todos los nombres de la electrónica han creado un consejo consultivo presidido por Bill Gates y en el cual está IBM y están todas las grandes empresas de la microelectrónica. Y, ¿qué han puesto ahí? Fábricas de segundo orden, fábricas que no necesiten en otros lugares, con muy poco valor añadido, relativamente poca creación de empleo, pero sobretodo, nula capacidad de innovación; es aplicación de la innovación que ya existía. Pero, sin embargo, lo que sí se ha conseguido es una operación publicitaria de que el gobierno de Malasia va a ser casi tan importante cómo el de Singapur, que, por su cuenta, ya había desarrollado ésta operación, con mucho más éxito, cuando había que desarrollarla hacía 15 años.
Un ejemplo positivo que es muy polémico, pero quiero explicar el por qué es positivo en mi opinión. Positivo en términos de que ha generado una extraordinaria innovación: el desarrollo de lo que se llama “el barrio multimedia” en San Francisco. El barrio multimedia en San Francisco ha generado, en estos momentos, entorno a las 2.500 empresas pequeñas, muy pequeñas en general, de menos de 10 y 15 personas como promedio. San Francisco y Nueva York, más o menos al mismo nivel, son hoy los dos centros de diseño real de multimedia. El mercado que han desarrollado en el último año oscila entorno a los 35.000 millones de dólares, porque son los que hacen las cosas que luego Hollywood pone en funcionamiento. Pero la tecnología y la concepción está ahí. No es que a mi me guste mucho pero, por ejemplo, todos los efectos especiales de la ultima serie de “La Guerra de las Galaxias” están desarrollados allí. Por tanto, no es alta creación cultural. Pero “La Guerra de las Galaxias generó en publicidad, no en ingresos, 2.500 millones de dólares. En publicidad, simplemente, para poner marcas dentro de la película. Fuera o no un éxito la película, era lo que esas empresas querían introducir cómo publicidad indirecta en el texto de la película.
El caso de San Francisco
Este multimedia en San Francisco se ha generado, en los últimos 10 años, en la zona más deteriorada de la ciudad, una vieja zona industrial bastante destruida que estaba ocupada, fundamentalmente, por dos subculturas: la subcultura sadomasoquista y la subcultura de artistas pobres, que no eran los mismos. Los sadomasoquistas eran más ricos mientras que los artistas, realmente, estaban allí porque necesitaban mucho espacio para hacer sus obras y usaban las viejas naves industriales. Estos artistas, un buen día, fueron contactados por empresas de Silicon Valley que querían entrar a fondo en el multimedia, pero que necesitaban mentes enfebrecidas, no tecnológicas, sino capaces de imaginar cosas rarísimas que impactaran a la gente, con lo cual se hizo la conexión entre la capacidad artística de creación y la tecnología electrónica más avanzada. De ahí salieron las empresas multimedia. Pero, entonces, ¿qué ocurre? Estos artistas vivían en sus casa en una zona residencial, que había sido industrial y había cambiado la calificación a la residencial para que pudieran vivir allí esta gente, más o menos marginada, pero respetada por el municipio. ¿En qué medida, el municipio, ha contribuido, en los últimos 5 años al desarrollo de esta zona? Han cambiado la ordenanza municipal y han creado una ordenanza mixta de trabajo y residencia en el mismo local, que en el fondo reconstruye el principio de la era industrial y, por tanto, reconstruye lo que era la actividad industrial de esa zona en la prehistoria de San Francisco. Es decir, hace 110 años o 120 años, al principio de la historia de San Francisco. Y a partir de esa recalificación permiten que la nueva industria, las nuevas actividades industriales ligadas a la residencia, se desarrollen en esa área.
Permiten que se recalifiquen los usos pero no permiten que especuladores inmobiliarios entren, compren y echen a estas empresas. Por consiguiente, se aumentan los usos pero se prohíbe el utilizar esa recalificación de usos del suelo para un proceso de transformación en viviendas de lujo para los que sean más ricos de estas empresas.
En torno a esto se permitió la ampliación de usos a locales comerciales, a bares, restaurantes, y en estos momentos, se ha generado una extraordinaria actividad urbana en la que, junto al trabajo de innovación, se desarrolla el tejido social de bares, restaurantes, encuentros en la calle, etc., que da vida a este lugar. En este momento, está pasando a ser, después de la industria financiera, la segunda industria más dinámica de la ciudad de San Francisco.
Un último tema de la relación entre política ciudadana y desarrollo de la nueva economía y de las nuevas tecnologías de información: es la idea de mercados locales de tecnología en base a políticas ciudadanas y ambientales que sean intensivas en información y en tratamientos avanzados de información, desde la modernización de servicios públicos, a partir de la introducción inteligente y gradual de Internet, hasta la creación de sistemas de participación ciudadana en que, junto a los sistemas tradicionales de tejido social de base, se articulen formas de participación ciudadana interactiva a través de Internet, como por ejemplo la experiencia de la ciudad digital en Amsterdam, y políticas ecológicas y de medio ambiente, ya que las políticas ecológicas bien realizadas requieren sistemas de información avanzados. No solamente esto genera una mejora de la gestión local, sino que, además, crea mercados locales, que pueden ser mercados de partida para pequeñas y medianas empresas innovadoras locales, que pueden ser la base del desarrollo futuro.
Una tecnología que se transforma con su uso
Y, concluyo con un tema que me parece, quizá, el más prospectivo. Y es el tema de que las tecnologías de que estamos hablando, la tecnología de información y comunicación interactiva, no es una tecnología tradicional, no es lo mismo que la ingeniería tradicional: es una tecnología que se transforma con su uso. No es una tecnología estática que se utiliza y sigue siendo la misma. El uso transforma la tecnología. Les doy un ejemplo para ilustrar, también, lo que quiero decir: el Internet que se pensó originalmente no es el Internet que tenemos hoy día. Se habla del origen militar de Internet, para defender las comunicaciones contra la posibilidad de un ataque a los centros de comunicaciones. La forma de defenderlas era que no hubiera centros de comunicaciones, que hubiera una red. Así es como los científicos americanos que trabajaban para el Pentágono lo vendieron al Pentágono. Pero el Pentágono nunca los tomó en serio. Ésta es la parte de la historia que se conoce menos. El Pentágono nunca los tomó en serio y ellos nunca quisieron hacer ésta cosa militar que les aburría muchísimo. Pero lo que los científicos sí querían hacer era utilizar una serie de superordenadores que había en el conjunto del país. Sólo había unos pocos. Entonces inventaron un sistema de relación entre éstos superordenadores, que era el sistema Internet, para compartir tiempo de superordenador. Ése era el objetivo real que querían hacer. Pero ocurrió que cuando ya tuvieron la posibilidad de compartir tiempo real en los siete superordenadores que había en Estados Unidos, se dieron cuenta que no necesitaban tanto, que, realmente, no tenían nada que hacer con tanto tiempo de ordenador. Entretanto, intentando montar el sistema, descubrieron una aplicación que se convirtió en la base de su trabajo en el futuro y en la base de nuestra vida actual: el correo electrónico. Y ese correo electrónico es lo que realmente fue el primer gran producto que salió del programa Internet.
De la misma forma se podrían multiplicar los ejemplos de cómo la utilización, la apropiación de Internet por sus usuarios a muchos niveles, ha sido lo que realmente genera nuevos tipos de tecnología y no sólo de usos de esa tecnología. ¿Esto, qué quiere decir? Que la utilización, a fondo, en una ciudad con políticas innovadoras en términos de servicios públicos, de ecología, de participación ciudadana, de difusión de la educación, puede llevar a un desarrollo de nuevas aplicaciones y, por tanto, de nuevos usos y de nuevas tecnologías de comunicación, que amplían la gama de utilización de Internet, de los usos propiamente comerciales, en los que está basado, en estos momentos, el desarrollo de Internet a usos y aplicaciones de un espectro mucho más amplio que, además de generar mercados importantes, también permitirán una utilización de la revolución tecnológica en aras de una mayor calidad de vida.
En ese sentido, el papel de las ciudades en la Era de la Información es ser medios productores de innovación y de riqueza, pero es, aún más, ser medios capaces de integrar la tecnología, la sociedad y la calidad de vida en un sistema interactivo, en un sistema que produzca un círculo virtuoso de mejora, no sólo de la economía y de la tecnología, sino de la sociedad y de la cultura.
Manuel Castells
Universidad de Berkeley (California).
Conferencia pronunciada en el Salón de Ciento del ayuntamiento de Barcelona, el 21 de febrero de 2000, en el acto de clausura del Máster “La ciudad: políticas proyectos y gestión” (http//:www.fbg.ub.es) organizado por la Universidad de Barcelona y dirigido por Jordi Borja.
________________
Internet, libertad y sociedad: una perspectiva analítica MANUEL CASTELLS
Profesor senior del Internet Interdisciplinary Institute (IN3) de la UOC
Como toda tecnología, Internet es una creación cultural: refleja los principios y valores de sus inventores, que también fueron sus primeros usuarios y experimentadores. Es más, al ser una tecnología de comunicación interactiva con fuerte capacidad de retroacción, los usos de Internet se plasman en su desarrollo como red y en el tipo de aplicaciones tecnológicas que van surgiendo. Los valores libertarios de quienes crearon y desarrollaron Internet, a saber, los investigadores académicos informáticos, los hackers, las redes comunitarias contraculturales y los emprendedores de la nueva economía, determinaron una arquitectura abierta y de difícil control. Al mismo tiempo, cuando la sociedad se dio cuenta de la extraordinaria capacidad que representa Internet, los valores encarnados en la red se difundieron en el conjunto de la vida social, particularmente entre las jóvenes generaciones. Internet y libertad se hicieron para mucha gente sinónimos en todo el mundo.
Frente a tal transformación tecnológica y cultural, los detentores del poder de controlar la información a lo largo de la historia, es decir, los estados y las iglesias, reaccionaron con preocupación y, en los estados no democráticos, con hostilidad, tratando de restablecer el control administrativo de la expresión y la comunicación. Pero la ejecución del proyecto estatista sobre Internet se encuentra con obstáculos considerables. En los países democráticos, Internet se consolida como instrumento esencial de expresión, información y comunicación horizontal entre los ciudadanos y recibe la protección constitucional y judicial de las libertades. En todos los países, menos en las teocracias, la importancia económica y tecnológica de Internet excluye que se pueda ignorar o relegar su amplio uso en la sociedad. Más aún, la ideología del progreso mediante la tecnología hace de la promoción de Internet un valor legitimador para gobiernos que fundan su estrategia en el desarrollo económico dentro del marco de la globalización. De ahí el complicado encaje de bolillos político entre la libertad y el control por parte de los Estados.
Por su parte, los internautas suelen afirmar sus derechos individuales fuera de contexto, situándose como vanguardia tecnológicamente liberada de una sociedad informáticamente iletrada. Más aún, los emprendedores llegan a empresarios mediante la comercialización acelerada de Internet, un proceso en el que frecuentemente traicionan sus principios libertarios, por ejemplo, mediante el sacrificio de la privacidad de sus clientes o la colaboración técnica e informativa con los dispositivos de control y vigilancia de la Administración.
Los ciudadanos, en general, tienden a hacer un uso instrumental y poco ideológico de Internet: lo utilizan para lo que les sirve y consideran la libertad en Internet como un tema fundamental cuando hace tiempo que se han acostumbrado al control político y comercial de su principal fuente de información: la televisión. Pero dicha actitud puede cambiar conforme vaya asentándose en la sociedad la primera generación que está creciendo con Internet. Conforme el uso de Internet vaya generalizando la información y el conocimiento sobre la importancia social decisiva del control sobre Internet, puede ser que la batalla por la libertad en la red, incluida la libertad económica de acceso a la red, desborde los confines de la actual elite ilustrada.
Internet: ¿una arquitectura de libertad? Libre comunicación y control del poder
¿Es controlable Internet? Éste es un debate sempiterno en el que se mezclan los sueños personales, los grados de (des)conocimiento tecnológico, la rutina del poder y la rapidez del cambio de los parámetros de referencia. Tratemos de clarificarlo.
En principio, el diseño de la red, a partir de una estructura en estratos (layers), con capacidad distribuida de comunicación para cada nodo y transmisión por packet switching, operada por protocolos TCP/IP, según múltiples canales de comunicación alternativos, proporciona una gran libertad a los flujos de información que circulan por Internet (www.isoc.org).
En sentido técnico, es cierta la célebre afirmación de John Gilmore de que los flujos en Internet interpretan la censura (o interceptación) como un fallo técnico y encuentran automáticamente una ruta distinta de transmisión del mensaje. Al ser una red global con poder de procesamiento de información y comunicación multinodal, Internet no distingue fronteras y establece comunicación irrestricta entre todos sus nodos. La única censura directa posible de Internet es no estar en la red. Y esto es cada vez más costoso para los gobiernos, las sociedades, las empresas y los individuos. No se puede estar "un poquito" en Internet. Existe, sí, la posibilidad de emitir mensajes unidireccionales propagados en Internet, sin reciprocidad de comunicación, en la medida en que los servidores de un país (por ejemplo, Afganistán) permanezcan desconectados de la red interna. Pero cualquier conexión en red de ordenadores con protocolos Internet permite la comunicación global con cualquier punto de la red.
Sin embargo, si la red es global, el acceso es local, a través de un servidor. Y es en este punto de contacto entre cada ordenador y la red global en donde se produce el control más directo. Se puede, y se hace en todos los países, negar acceso al servidor, cerrar el servidor o controlar quién comunica qué y a quién mediante una vigilancia electrónica de los mensajes que circulan por el servidor. Pero los censores no lo tienen tan fácil como parece. Primero, porque en algunos países hay una protección legal considerable de la libertad de expresión y comunicación en Internet. Tal es el caso, en particular, de Estados Unidos, en donde, en 1996 y en 2000, los tribunales estadounidenses, con sentencias corroboradas por el Supremo, declararon inconstitucionales dos intentos legislativos de la Administración Clinton para establecer la censura de Internet, con el pretexto de controlar la pornografía infantil. En una sentencia célebre, de 1996, el Tribunal Federal del Distrito Este de Pensilvania reconoció que Internet es un caos, pero afirmó, textualmente: "La ausencia de regulación gubernativa de los contenidos de Internet ha producido, incuestionablemente, una especie de caos, pero lo que ha hecho de Internet un éxito es el caos que representa. La fuerza de Internet es ese caos. De la misma forma que la fuerza de Internet es el caos, la fuerza de nuestra libertad depende del caos y de la cacofonía de la expresión sin trabas que protege la Primera Enmienda. Por estas razones, sin dudarlo, considero que la Ley de Decencia en las Comunicaciones es prima facie inconstitucional." Así se protegió una libertad amenazada por una Administración que, pese a sus declaraciones en favor de Internet, siempre desconfió, como la mayoría de los gobiernos, de la libre expresión y autoorganización de los ciudadanos (www.eff.org).
Así pues, en la medida en que la censura de Internet es difícil en Estados Unidos y que, en 2001, la mayoría de flujos globales de Internet utilizan un backbone norteamericano (y muchos otros podrían utilizarlo en caso de necesidad), la protección que Estados Unidos hace de Internet crea un espacio institucional de libertad para la gran mayoría de circuitos de transmisión por Internet.
Quiero señalar, incidentalmente, que esto no admite la interpretación de un canto a Estados Unidos como tierra de libertad: lo es en algunos aspectos y en otros, no. Pero, en lo que concierne a la libre expresión en Internet, sí representa, por su tradición de liberalismo constitucional, un elemento decisivo en la capacidad de comunicación autónoma mediante Internet. Si no se pueden censurar las comunicaciones en Estados Unidos, siempre hay formas de conectar a cualquier nodo en la red, pasando por Estados Unidos, una vez que el mensaje ha salido del servidor. Los censores tienen, sin embargo, el recurso de desconectar el servidor, de penalizar a sus administradores o de identificar el origen o al receptor de un mensaje no permitido y reprimirlo individualmente. Eso es lo que hacen los chinos, los malasios, los singapureanos y tantos otros, asiduamente, y eso es lo que pretende la legislación que se propone en algunos países europeos, España entre otros.
Ahora bien, la represión no es lo mismo que la censura. El mensaje se comunica, las consecuencias llegan luego. De modo que, más que bloquear Internet, lo que se puede hacer y se hace es reprimir a quienes hacen un uso indebido según los criterios de los poderes al uso. Por eso tienen razón tanto los que declaran Internet incontrolable como aquellos que lo consideran el más sofisticado instrumento de control, en último caso bajo la égida de los poderes constituidos. Técnicamente, Internet es una arquitectura de libertad. Socialmente, sus usuarios pueden ser reprimidos y vigilados mediante Internet. Pero, para ello, los censores tienen que identificar a los transgresores, lo cual implica la definición de la transgresión y la existencia de técnicas de vigilancia eficaces.
La definición de la transgresión depende, naturalmente, de los sistemas legales y políticos de cada jurisdicción. Y aquí empiezan los problemas. Lo que es subversivo en Singapur no necesariamente lo es en España. Y cuando, en el año 2000, en Estados Unidos, un web site organizó la venta legal de votos de personas ausentes que vendían su voto al mejor postor de los candidatos políticos, motivando una persecución legal, el web site se trasladó a Alemania, donde un delito electoral americano no caía bajo la represión policial. De modo que la geometría política variable de Internet permite operar desde distintos servidores hacia distintas redes. Como no hay una legislación global, pero sí hay una red global de comunicación, la capacidad de control sistemática y preventiva se diluye en la práctica.
Sí, en cambio, se puede proceder, desde cada centro de poder, a la identificación y subsiguiente represión de quienes sean los transgresores de las normas dictadas por dicho poder. Para ello, se dispone ahora de tecnologías de control que, en su mayor parte, fueron creadas por los empresarios informáticos que hacen negocio de cualquier cosa sin importarles demasiado los principios libertarios que afirman en su vida personal. Dichas tecnologías son fundamentalmente de tres tipos: de identificación, de vigilancia y de investigación (www.epic.org).
Las principales tecnologías de identificación son las contraseñas, los cookies y los procedimientos de autenticidad. Las contraseñas son los símbolos convenidos que usted utilizó para entrar en esta red. Los cookies son marcadores digitales que los web sites así equipados insertan automáticamente en los discos duros de los ordenadores que los conectan. Una vez que un cookie entra en un ordenador, todas las comunicaciones de dicho ordenador en la red son automáticamente registradas en el web site originario del cookie. Los procedimientos de autenticidad son firmas digitales que permiten a los ordenadores verificar el origen y características de las comunicaciones recibidas.
Generalmente, utilizan tecnología de encriptación. Trabajan por niveles, de modo que los servidores identifican a usuarios individuales y las redes de conexión identifican a los servidores.
Las tecnologías de vigilancia permiten interceptar mensajes, insertar marcadores gracias a los cuales se puede seguir la comunicación de un ordenador o un mensaje marcado a través de la red; también consisten en la escucha continua de la actividad de comunicación de un ordenador o de la información almacenada en dicho ordenador. El famoso programa Carnivore del FBI permite analizar mediante palabras clave enormes masas de información de las comunicaciones telefónicas o Internet, buscando y reconstruyendo en su totalidad aquellos mensajes que parezcan sospechosos (aunque algunas detenciones sobre esas bases resultaron bastante chuscas, arrestando a buenas madres de familia que comentaban electrónicamente el peligro del consumo de drogas en la escuela de sus hijos). Las tecnologías de vigilancia permiten identificar el servidor originario de un determinado mensaje. A partir de ahí, por colaboración o coacción, los mantenedores de los servidores pueden comunicar al detentor del poder la dirección electrónica de donde provino cualquier mensaje.
Las tecnologías de investigación se organizan sobre bases de datos obtenidos del almacenamiento de la información resultante de las tecnologías de vigilancia. A partir de esas bases de datos se pueden construir perfiles agregados de usuarios o conjuntos de características personalizadas de un usuario determinado. Por ejemplo, mediante el número de tarjeta de crédito, asociado a un número de carné de identidad y a la utilización de un determinado ordenador, se puede reconstruir fácilmente el conjunto de todos los movimientos que realiza una persona que dejen registro electrónico. Como eso es algo que hacemos todos los días (teléfono, correo electrónico, tarjetas de crédito), parece evidente que ya no hay privacidad desde el punto de vista de la comunicación electrónica.
O sea, la combinación de las tecnologías de identificación, de vigilancia y de investigación configuran un sistema en que quien tenga el poder legal o fáctico de acceso a esa base de datos puede conocer lo esencial de lo que cada persona hace en la red y fuera de ella. Desde ese punto de vista, la red no se controla, pero sus usuarios están expuestos a un control potencial de todos sus actos más que nunca en la historia. Así pues, un poder político, judicial, policial o comercial (defensores de derechos de propiedad) que quiera actuar contra un internauta determinado puede interceptar sus mensajes, detectar sus movimientos y, si están en contradicción con sus normas, proceder a la represión del internauta, del prestador de servicios, o de los dos.
Obviamente, el control no proviene tan sólo del gobierno o de la policía.
Las empresas vigilan rutinariamente el correo electrónico de sus empleados y las universidades, el de sus estudiantes, porque la protección de la privacidad no se extiende al mundo del trabajo, bajo el control de la organización corporativa.
Pero ni Internet es una red de libertad, en un mundo en que la tecnología puede servir para el control de nuestras vidas mediante su registro electrónico, ni la tendencia al control ubicuo es irreversible. En sociedad, todo proceso está hecho de tendencias y contratendencias, y la oposición entre libertad y control continúa sin fin, a través de nuevos medios tecnológicos y nuevas formas institucionales.
A las tecnologías de control y vigilancia se contraponen tecnologías de libertad. Por un lado, el movimiento para el software de fuente abierta permite la difusión de los códigos sobre los que se basa el procesamiento informático en las redes. Por consiguiente, a partir de un cierto nivel de conocimiento técnico, frecuente entre los centros de apoyo a quienes defienden la libertad en la red, se puede intervenir en los sistemas de vigilancia, se pueden transformar los códigos y se pueden proteger los propios programas. Naturalmente, si se acepta sin rechistar el mundo de Microsoft, se acabó cualquier posibilidad de privacidad y, por tanto, de libertad en la red. Entre otras cosas, porque cada programa Windows contiene un identificador individual que acompaña a través de la red cualquier documento generado desde ese programa. Pero la creciente capacidad de los usuarios para modificar sus propios programas crea una situación más compleja en la que el controlado puede pasar a ser controlador de los sistemas que lo vigilan.
La otra tecnología fundamental en la reconstrucción de la libertad en la red es la encriptación (www.kriptopolis.com).
Bien es cierto que, como toda tecnología, su relación con la libertad es ambigua, como señala Lessig (1999; 2000 en castellano), porque, por un lado, protege la privacidad del mensaje pero, por otro, permite los procedimientos de autentificación que verifican la identidad del mensajero.
Sin embargo, en lo esencial, las tecnologías de encriptación permiten, cuando funcionan, mantener el anonimato del mensaje y borrar las huellas del camino seguido en la red, haciendo difícil, pues, la interceptación del mensaje y la identificación del mensajero. Por eso, la batalla sobre la encriptación es, desde el punto de vista técnico, una batalla fundamental por la libertad en Internet.
Pero no todo es tecnología en la defensa de la libertad. En realidad, lo más importante no es la tecnología sino la capacidad de los ciudadanos para afirmar su derecho a la libre expresión y a la privacidad de la comunicación. Si las leyes de control y vigilancia sobre Internet y mediante Internet son aprobadas por una clase política que sabe que el control de la información ha sido siempre, en la historia, la base del poder, las barricadas de la libertad se construirán tecnológicamente. Pero es aún más importante que las instituciones de la sociedad reconozcan y protejan dicha libertad. Por eso, movilizaciones de opinión como la de Electronic Frontier Foundation, en Estados Unidos, y tantas otras redes en Europa y en el mundo han sido elementos influyentes a la hora de frenar las tendencias represivas que se albergan en las burocracias gubernamentales y en los sectores ideológicamente conservadores, asustados del potencial liberador de Internet. En último término, es en la conciencia de los ciudadanos y en su capacidad de influencia sobre las instituciones de la sociedad, a través de los medios de comunicación y del propio Internet, en donde reside el fiel de la balanza entre la red en libertad y la libertad en la red.
La cultura de libertad como constitutiva de Internet
Las tecnologías son producidas por su historia y por el uso que se hace de ellas. Internet fue diseñada como una tecnología abierta, de libre uso, con la intención deliberada de favorecer la libre comunicación global. Y cuando los individuos y comunidades que buscan valores alternativos en la sociedad se apropiaron de esa tecnología, ésta amplificó aún más su carácter libertario, de sistema de comunicación interactivo, abierto, global y en tiempo escogido (www.isoc.org/internet-history/brief.html).
En principio, esta afirmación podría sorprender, puesto que el antepasado más directo de Internet, Arpanet, fue creado en 1969 (y presentado al mundo en 1972) en ARPA, la oficina de proyectos avanzados de investigación del Departamento de Defensa del gobierno de Estados Unidos. Y, sin embargo, no sólo el diseño de sus creadores se inspiró en principios de apertura de la red, sino que los principales nodos de Arpanet se localizaron en universidades, con acceso posible a ellos por parte de profesores y estudiantes de doctorado, eliminando toda posibilidad de control militar estricto. Ni siquiera es cierta la historia, a menudo contada, de que Arpanet se creó para salvaguardar las comunicaciones norteamericanas de un ataque nuclear sobre sus centros de mando y coordinación. Es cierto que hubo un proyecto de Paul Baran, en la Rand Corporation, propuesto a la Fuerza Aérea, para construir un sistema de comunicación flexible y descentralizado basado en una nueva tecnología de transmisión, packet switching. Pero, si bien dicha tecnología fue esencial en el desarrollo de Internet, el proyecto de Baran fue rechazado por el Departamento de Defensa e Internet no encontró aplicaciones militares hasta treinta años más tarde, cuando las tropas de elite estadounidenses empezaron a organizarse en red aprovechando la facilidad de comunicación interactiva ubicua.
La razón oficial para el desarrollo de Arpanet fue facilitar la comunicación entre los distintos grupos universitarios de informática financiados por el Departamento de Defensa y, en especial, permitir que compartieran tiempo de ordenador en las potentes máquinas que existían tan sólo en algunos centros. Pero, de hecho, muy rápidamente el aumento de capacidad y velocidad de los ordenadores hizo que sobrara tiempo de computación, con lo que la utilidad directa de Arpanet no era evidente. Lo que de verdad ocurrió fue que un grupo de investigadores informáticos, generosamente financiados por el Departamento de Defensa, encontraron un instrumento perfecto para llevar a cabo su investigación en red, y, pronto, se entusiasmaron con la perspectiva de desarrollar un sistema de comunicación entre ordenadores, que se concretó en los protocolos TCP/IP desarrollados por Cerf y Kahn en 1973, y luego por Cerf, Kahn y Postel en 1978.
Desde el principio, los diseñadores de Internet, todos ellos procedentes del mundo académico, aunque algunos de ellos trabajaron en el entorno del Departamento de Defensa y consultoras asociadas, buscaron deliberadamente la construcción de una red informática abierta y sin cortapisas, con protocolos comunicables y una estructura que permitiera añadir nodos sin cambiar la configuración básica del sistema. Fue una cultura de libertad inspirada en los principios de la investigación académica y en la práctica de compartir los resultados de la investigación con los colegas, de forma que el juicio de la comunidad informática académica sobre la contribución de cada uno era la recompensa más importante al trabajo obtenido.
¿Por qué el Departamento de Defensa les dejó tal libertad? En realidad, porque quien supervisó el desarrollo de Internet fue una agencia de promoción de investigación, ARPA, formada en buena parte por científicos e ingenieros y que siguió la estrategia innovadora y atrevida de buscar la supremacía tecnológica de Estados Unidos (tras el susto recibido por el Sputnik soviético) a partir de la excelencia de sus universidades. Pero cualquier académico que se precie no acepta limitaciones a su libertad de investigación y comunicación de resultados. Por tanto, para obtener la mejor investigación en informática y telecomunicaciones (que ARPA vio en seguida como tecnologías decisivas), los fondos fueron a parar a los mejores grupos (MIT, Stanford, Berkeley, Carnegie Mellon, UCLA, USC, SRI, BBN, UC Santa Barbara, Utah, etc.) sin restricciones burocráticas. De hecho, la estrategia resultó, porque no solamente se desarrolló Internet, sino que, merced al salto gigantesco de la investigación universitaria en tecnologías de información y comunicación, Estados Unidos obtuvo una supremacía tecnológica que también llegó al terreno militar, que puso a la defensiva en los años ochenta a la Unión Soviética y, en último término, llevó a su malograda perestroika y posterior desintegración, como hemos demostrado en nuestro libro (Castells y Kiselyova, 1995).
Una vez que las tecnologías de Internet se desarrollaron de forma abierta a través de las universidades, fueron conectando con otros medios sociales y otras actitudes culturales a lo largo de los años setenta y ochenta. Por un lado, los hackers vieron en Internet un medio privilegiado de comunicación e innovación y aplicaron su enorme potencial de creatividad y capacidad tecnológica a perfeccionar el software de Internet, utilizando el poder de la colaboración abierta en red para incrementar su capacidad tecnológica. Por otro lado, los movimientos contraculturales y alternativos tomaron Internet como forma de organización de comunidades virtuales y proyectos culturales autónomos, a partir del desarrollo de los PC, que puso en manos de la gente el poder de procesamiento informático y de comunicación en red (Rheingold, 1993; 2000). Con cada nueva oleada de usuarios, llegó una plétora de nuevas aplicaciones que los programadores autónomos inventaron a partir de su práctica; por ejemplo, el World Wide Web, que programó Tim Berners-Lee, en el CERN, en 1990.
Cada nueva aplicación se publicaba en la red, con lo que el conocimiento colectivo se fue profundizando y la capacidad tecnológica de la red ampliando y haciéndose más fácil de usar. Así, se generalizó el uso de Internet por círculos concéntricos a partir de los hackers y los estudiantes de las universidades más avanzadas, hasta llegar a los más de 400 millones de usuarios en la actualidad (había 16 millones en 1995, primer año del World Wide Web).
Una vez que Internet tuvo pleno desarrollo tecnológico y una base de usuarios suficientemente amplia, una nueva generación de empresarios lo utilizó como negocio y como nueva forma de hacer negocio, llevando su uso a todos los ámbitos de la economía y, por tanto, de la sociedad. Si la investigación académica inventó Internet, la empresa fue la que lo difundió en la sociedad, tres décadas más tarde. Pero, entre los dos procesos tuvo lugar la apropiación, transformación y desarrollo de Internet por dos culturas de libertad que fueron decisivas en su tecnología y en sus aplicaciones: la cultura hacker y las comunidades contraculturales, que plasmaron su autonomía en la tecnología, estructura y usos de la red.
Hackers, crackers, libertad y seguridad.
Los hackers y su cultura son una de las fuentes esenciales de la invención y continuo desarrollo de Internet. Los hackers no son lo que los medios de comunicación o los gobiernos dicen que son. Son, simplemente, personas con conocimientos técnicos informáticos cuya pasión es inventar programas y desarrollar formas nuevas de procesamiento de información y comunicación electrónica (Levy, 1984; Raymond, 1999). Para ellos, el valor supremo es la innovación tecnológica informática. Y, por tanto, necesitan también libertad. Libertad de acceso a los códigos fuente, libertad de acceso a la red, libertad de comunicación con otros hackers, espíritu de colaboración y de generosidad (poner a disposición de la comunidad de hackers todo lo que se sabe, y, en reciprocidad, recibir el mismo tratamiento de cualquier colega). Algunos hackers son políticos y luchan contra el control de los gobiernos y de las corporaciones sobre la red, pero la mayoría no lo son, lo importante para ellos es la creación tecnológica. Se movilizan, fundamentalmente, para que no haya cortapisas a dicha creación. Los hackers no son comerciales, pero no tienen nada contra la comercialización de sus conocimientos, con tal de que las redes de colaboración de la creación tecnológica sigan siendo abiertas, cooperativas y basadas en la reciprocidad.
La cultura hacker se organiza en redes de colaboración en Internet, aunque de vez en cuando hay algunos encuentros presenciales. Distintas líneas tecnológicas se agrupan en torno a grupos cooperativos, en los cuales se establece una jerarquía tecnológica según quiénes son los creadores de cada programa original, sus mantenedores y sus contribuidores. La comunidad suele reconocer la autoridad de los primeros innovadores, como es el caso de Linus Torvalds en la comunidad Linux. Pero sólo se reconoce la autoridad de quien la ejerce con prudencia y no la utiliza para su beneficio personal.
El movimiento hacker más político (en términos de política de libertad tecnológica) es el creado por Richard Stallman, un programador de MIT, que constituyó en los años ochenta la Free Software Foundation para defender la libertad de acceso a los códigos de UNIX cuando ATT trató de imponer sus derechos de propiedad sobre UNIX, el sistema operativo más avanzado y más compatible de su tiempo, y sobre el que se ha fundado en buena parte la comunicación de los ordenadores en la red. Stallman, que aprendió el valor de la libertad en el movimiento de libre expresión en sus tiempos de estudiante en Berkeley, sustituyó el copy right por el copy left. Es decir, que cualquier programa publicado en la red por su Fundación podía ser utilizado y modificado bajo licencia de la Fundación bajo una condición: difundir en código abierto las modificaciones que se fueran efectuando. Sobre esa base, desarrolló un nuevo sistema operativo, GNU, que sin ser Unix, podía utilizarse como UNIX. En 1991, un estudiante de 21 años de la Universidad de Helsinki, Linus Torvalds, diseñó su propio UNIX kernel para su PC 386 sobre la base de Fundación. Y, siguiendo las reglas del juego, publicó la fuente de su código en la red, solicitando ayuda para perfeccionarlo. Cientos de programadores espontáneos se pusieron a la tarea, desarrollando así el sistema operativo Linux (que recibió ese nombre del administrador del sistema en la Universidad de Helsinki, puesto que el nombre que Torvalds le había dado era el de Freix), considerado hoy en día el más avanzado del mundo, sobre todo para ordenadores en Internet, y la única alternativa actual a los programas de Microsoft. Linux cuenta en la actualidad con más de 30 millones de usuarios y está siendo promocionado por los gobiernos de Francia, de Brasil, de la India, de Chile, de China, entre otros, así como por grandes empresas como IBM. Siempre en código abierto y sin derechos de propiedad sobre él.
El filósofo finlandés Pekka Himanen (www.hackerethic.org) argumenta convincentemente que la cultura hacker es la matriz cultural de la era de la información, tal y como la ética protestante fue el sistema de valores que coadyuvó decisivamente al desarrollo del capitalismo, según el análisis clásico de Max Weber. Naturalmente, la mayoría de los capitalistas no era protestante ni la mayoría de los actores de la sociedad de la información es hacker. Pero lo que esto significa es lo siguiente: una gran transformación tecnoeconómica necesita un caldo de cultivo en un sistema de valores nuevo que motive a la gente para hacer lo que hace. En el caso del capitalismo, fue la ética del trabajo y de la acumulación de capital en la empresa como forma de salvación personal (lo cual, desde luego, no impidió, sino que justificó, la explotación de los trabajadores).
En la era de la información, la matriz de todo desarrollo (tecnológico, económico, social) está en la innovación, en el valor supremo de la innovación que, potenciada por la revolución tecnológica informacional, incrementa exponencialmente la capacidad de generación de riqueza y de acumulación de poder. Pero innovar no es un valor obvio. Debe estar asociado a una satisfacción personal, del tipo que sea, ligado al acto de la innovación. Eso es la cultura hacker, según Himanen. El placer de crear por crear. Y eso mueve el mundo, sobre todo el mundo en que la creación cultural, tecnológica, científica y también empresarial, en su aspecto no crematístico, se convierte en fuerza productiva directa por la nueva relación tecnológica entre conocimiento y producción de bienes y servicios. Se podría argumentar que, así definido, hay hackers en todas partes y no sólo en la informática. Y ése es, en realidad, el argumento de Himanen: que todo el mundo puede ser hacker en lo que hace y que cualquiera que esté movido por la pasión de crear en su actividad propia está motivado por una fuerza superior a la de la ganancia económica o la satisfacción de sus instintos. Lo que ocurre es que la innovación tecnológica informática tiene el piñón directo sobre la rueda del cambio en la era de la información, de ahí que la cultura hacker se manifieste de forma particularmente espectacular en las tecnologías de información y en Internet.
En realidad, los hackers han sido fundamentales en el desarrollo de Internet. Fueron hackers académicos quienes diseñaron los protocolos de Internet. Un hacker, Ralph Tomlinson, trabajador de la empresa BBN, inventó el correo electrónico en 1970, para uso de los primeros internautas, sin comercialización alguna. Hackers de los Bell Laboratories y de la Universidad de Berkeley desarrollaron UNIX. Hackers estudiantes inventaron el módem. Las redes de comunicación electrónica inventaron los tablones de anuncio, los chats, las listas electrónicas y todas las aplicaciones que hoy estructuran Internet. Y Tim Berners-Lee y Roger Cailliau diseñaron el browser/editor World Wide Web, por la pasión de programar, a escondidas de sus jefes en el CERN de Ginebra, en 1990, y lo difundieron en la red sin derechos de propiedad a partir de 1991. También el browser que popularizó el uso del World Wide Web, el Mosaic, fue diseñado en la Universidad de Illinois por otros dos hackers (Marc Andreesen y Eric Bina) en 1992. Y la tradición continúa: en estos momentos, dos tercios de los servidores de web utilizan Apache, un programa servidor diseñado y mantenido en software abierto y sin derechos de propiedad por una red cooperativa.
En una palabra, los hackers informáticos han creado la base tecnológica de Internet, el medio de comunicación que constituye la infraestructura de la sociedad de la información. Y lo han hecho para su propio placer, o, si se quiere, por el puro goce de crear y compartir la creación y la competición de la creación. Ciertamente, unos pocos de entre ellos también se hicieron ricos como empresarios, pero mediante aplicaciones de sus innovaciones, no mediante la apropiación de la innovación cooperativa en su propio beneficio (aunque el caso de Andreesen es menos claro, en este sentido). Otros obtuvieron buenos puestos de trabajo, pero sin ceder en sus principios como hackers. También hubo quien se hizo famoso, como Linus Torvalds, pero su fama vino de su reconocimiento de la comunidad de hackers, que implica el respeto a sus reglas de libertad y cooperación. Los más permanecieron anónimos para el mundo y llevan y llevaron una vida modesta. Pero obtuvieron, mediante su práctica de innovación cooperativa, la más alta recompensa a la que aspira un hacker, el reconocimiento como tal por parte de la única autoridad que puede otorgar dicha distinción: la comunidad global de hackers, fuente esencial de innovación en la era de la información.
En los márgenes de la comunidad hacker se sitúan los crackers. Los crackers, temidos y criticados por la mayoría de hackers, por el desprestigio que les supone ante la opinión pública y las empresas, son aquellos que utilizan sus conocimientos técnicos para perturbar procesos informáticos (Haffner y Markoff, 1995).
Hay muy distintos tipos de crackers, pero no considero entre ellos a aquellos que penetran en ordenadores o redes de forma ilegal para robar: éstos son ladrones de guante blanco, una vieja tradición criminal. Muchos crackers pertenecen a la categoría de script kiddies, es decir, bromistas de mal gusto, muchos de ellos adolescentes, que penetran sin autorización en sistemas o crean y difunden virus informáticos para sentir su poder, para medirse con los otros, para desafiar al mundo de los adultos y para chulear con sus amigos o con sus referentes en la red. La mayoría de ellos tiene conocimientos técnicos limitados y no crea ninguna innovación, por lo que son, en realidad, marginales al mundo hacker. Otros crackers, más sofisticados, penetran en sistemas informáticos para desafiar personalmente a los poderes establecidos, por ejemplo, a Microsoft o las grandes empresas. Y algunos utilizan su capacidad tecnológica como forma de protesta social o política, como expresión de su crítica al orden establecido. Ellos son quienes se introducen en sistemas militares, administraciones públicas, bancos o empresas para reprocharles alguna fechoría. Entre los ataques de crackers con motivación política hay que situar los practicados por movimientos políticos o por servicios de inteligencia de los gobiernos, como la guerra informática desarrollada entre los crackers islámicos e israelíes o entre los pro-chechenos y los servicios rusos.
En suma, en la medida en que los sistemas informáticos y las comunicaciones por Internet se han convertido en el sistema nervioso de nuestras sociedades, la interferencia con su operación a partir de una capacidad técnica de actuación en la red es un arma cada vez más poderosa, que puede ser utilizada por distintos actores y con distintos fines. Éstas son las acciones de los crackers, que deben ser absolutamente deslindados de los hackers, a cuya constelación pertenecen, pero con quienes no se confunden.
La vulnerabilidad de los sistemas informáticos plantea una contradicción creciente entre seguridad y libertad en la red. Por un lado, es obvio que el funcionamiento de la sociedad y sus instituciones y la privacidad de las personas no puede dejarse al albur de cualquier acción individual o de la intromisión de quienes tienen el poder burocrático o económico de llevarla a cabo. Por otro lado, como ocurre en la sociedad en general, con el pretexto de proteger la información en la red se renueva el viejo reflejo de control sobre la libre comunicación.
El debate sobre seguridad y libertad se estructura en torno a dos polos: por un lado, la regulación político-jurídica de la red; por otro, la autoprotección tecnológica de los sistemas individuales. Naturalmente, hay fórmulas intermedias, pero, en general, dichas fórmulas mixtas tienden a gravitar hacia la regulación institucional de la comunicación electrónica. Quienes defienden la capacidad de autorregulación de la red argumentan que existen tecnologías de protección que son poco vulnerables, sobre todo cuando se combinan los fire walls (o filtros de acceso) de los sistemas informáticos con las tecnologías de encriptación, que hacen muy difíciles de interceptar los códigos de acceso y el contenido de la comunicación. Es así como están protegidos los ordenadores del Pentágono, de los bancos suizos o de Scotland Yard. La mayor parte de las instituciones de poder y de las grandes empresas tiene sistemas de seguridad a prueba de cualquier intento de penetración que no cuente con capacidad tecnológica e informática similar. Cierto que hay una carrera incesante entre sistemas de ataque informático y de protección de éstos, pero por esto mismo, el corazón de dichos sistemas es poco vulnerable para el común de los crackers.
Ahora bien, al estar los sistemas informáticos conectados en red, la seguridad de una red depende en último término de la seguridad de su eslabón más débil, de forma que la capacidad de penetración por un nodo secundario puede permitir un ataque a sus centros más protegidos. Esto fue lo que ocurrió en el año 2000 cuando los crackers se introdujeron en el sistema de Microsoft y obtuvieron códigos confidenciales, a partir de la penetración en el sistema personal de un colaborador de Microsoft que tenía acceso a la red central de la empresa. Es manifiestamente imposible proteger el conjunto de la red con sistemas de fire walls y encriptación automática. Por ello, sólo la difusión de la capacidad de encriptación y de autoprotección en los sistemas individuales podría aumentar la seguridad del sistema en su conjunto. En otras palabras, un sistema informático con capacidad de computación distribuida en toda la red necesita una protección igualmente distribuida y adaptada por cada usuario a su propio sistema. Pero eso equivale a poner en manos de los usuarios el poder de encriptación y autoprotección informática. Algo que rechazan los poderes políticos con el pretexto de la posible utilización de esta capacidad por los criminales (en realidad, las grandes organizaciones criminales tienen la misma capacidad tecnológica y de encriptación que los grandes bancos). En último término, la negativa de las administraciones a permitir la capacidad de encriptación y de difusión de tecnología de seguridad entre los ciudadanos conlleva la creciente vulnerabilidad de la red en su conjunto, salvo algunos sistemas absolutamente aislados y, en última instancia, desconectados de la red.
De ahí que gobiernos y empresas busquen la seguridad mediante la regulación y la capacidad represiva de las instituciones más que a través de la autoprotección tecnológica de los ciudadanos. Es así como se reproduce en el mundo de Internet la vieja tensión entre seguridad y libertad.
La experiencia española de regulación de Internet
Los gobiernos de la mayoría de los países han acogido Internet con una actitud esquizofrénica. Por un lado, como icono de modernidad e instrumento de desarrollo económico. Por otro, con una profunda desconfianza hacia el uso que pueden hacer los ciudadanos de esa potencialidad de libre comunicación horizontal. De ahí los continuos intentos de regulación, legislación e instauración de mecanismos de control, siempre al amparo de la protección necesaria de los niños, los principios democráticos y los consumidores.
En Estados Unidos, la Administración Clinton intentó dos veces, en 1996 y en 2000, establecer la censura de Internet por vía legislativa, perdiendo la batalla, en ambas ocasiones, tanto ante la opinión pública como ante los tribunales. En Europa, varios gobiernos y la Comisión Europea han tomado diversas iniciativas reguladoras. Fiel a su trayectoria histórica, el gobierno francés ha sido particularmente celoso de la soberanía nacional en materia de control de la información. La alarma sonó en Francia, en 1995, cuando las memorias del médico de Mitterrand, cuya publicación había sido prohibida por la autoridad judicial, se difundieron en la red. El ministro de Información declaró que dicho gesto era un atentado intolerable contra la autoridad del Estado e inició un esfuerzo de largo alcance para crear mecanismos de control de la información en Internet, toda vez que el sueño francés de un Minitel republicano y tricolor, controlado desde el centro, se desvaneció ante la realidad de las redes globales autoevolutivas.
La Comisión Europea dictó varias directivas reguladoras que debían ser incorporadas en las legislaciones nacionales. Una de ellas, la directiva 2000/31/CE, estableció criterios para regular el comercio electrónico buscando "la integración jurídica comunitaria con objeto de establecer un auténtico espacio sin fronteras interiores en el ámbito de los servicios de la sociedad de la información". La vaguedad del concepto de "servicios de la sociedad de la informacion" dejó abierta la puerta a toda clase de interpretaciones, plasmadas en textos legislativos y ordenanzas administrativas.
Con la intención de traducir la directiva europea en una ley española, el Ministerio de Ciencia y Tecnología del gobierno español elaboro un Anteproyecto de Ley de Servicios de la Sociedad de la Información, cuya primera publicación tuvo lugar el 16 de marzo de 2000. El proyecto fue difundido en Internet para su discusión. Dio lugar a tal polémica entre la comunidad internauta, tanto española, como mundial, que sigue en discusión en estos momentos. La tercera redacción del Anteproyecto, elaborada el 30 de abril de 2001, está en trámite parlamentario en octubre del 2001, habiendo ya suscitado un vivo debate durante su discusión en el Senado en septiembre de este mismo año (www.internautas.org/propuestalssi.htm). El proyecto ha sido fuertemente criticado por sectores influyentes de los internautas españoles, agrupados en este caso en torno a la campaña contra el LSSI lanzada por la revista digital Kriptópolis, especializada en temas de seguridad y libertad en la red, con una postura militante en la defensa de los derechos civiles de los usuarios de Internet. Kriptópolis ha llevado su oposición hasta el punto de decidir el traslado provisional de su web site a un servidor en New Jersey, en previsión de los efectos de censura que podría suponer la aprobación en España de este proyecto de ley. La Asociación de Internautas ha sido menos radical en su postura, pero también solicita una modificación del articulado que, manteniendo la regulación de servicios comerciales en la red para proteger a los usuarios, impida la arbitrariedad administrativa en la decisión sobre lo que se puede y no se puede hacer en la red. Sin poder entrar en el detalle del debate jurídico, teniendo en cuenta el objetivo analítico general de esta lección, resaltaré que las críticas, apoyadas por los partidos políticos de oposición (http://www.psc.es/ambit/ntic/documents/default.asp?apt=665, www.ic-v.org/lssi/index.htm), se centran en dos puntos esenciales:
Por un lado, la falta de protección judicial en la decisión de sancionar a un prestador de servicios por algún acto relativo a la difusión de información en la red. El artículo 11 del Anteproyecto establece que: "Todos los prestadores de servicios de la sociedad de la información establecidos en España deberán cumplir las siguientes obligaciones en relación con los contenidos: [...] c). Suspender la transmisión, el alojamiento de datos, el acceso a las redes de telecomunicaciones o la prestación de cualquier otro servicio de la sociedad de la información, en ejecución de resoluciones dictadas por una autoridad judicial o administrativa". La palabra esencial, naturalmente, es administrativa, porque ello abre la vía a que un funcionario, sin iniciativa judicial, pueda intervenir en la libre expresión en Internet, en contradicción directa con el artículo 20 de la Constitución Española.
El segundo punto controvertido en el Anteproyecto de LSSI es la definición de un ente inventado por la Comisión Europea, "los servicios de la sociedad de la información". En principio, en el Anteproyecto se establece que, a los efectos de la ley, los servicios regulados son aquellos que "representen una actividad económica y comercial" y no son regulados, en cambio, aquellas "páginas web, servicios de FTP, intercambio de ficheros, servidores de correo, noticias, boletines informativos, o cualquier otro servicio considerado como personales, aun cuando éstas tengan asignado dominio propio, sean realizadas de forma personal o entre varias personas, y que no tienen como fin último ser una actividad económica y comercial". Esta delimitación es lo que permite al Ministerio argumentar que se está respetando plenamente la libertad de expresión y que lo único que se regula es la actividad comercial en la red. Sin embargo, es difícil hacer una distinción clara entre lo que tiene y no tiene implicaciones de actividad económica en la red, porque ofrecer información en línea, o instrumentos de búsqueda o acceso y recopilación de datos que ofrezcan publicidad directa o indirecta puede ser considerada como actividad comercial. Por ejemplo, el tener banners publicitarios en un portal implica una actividad económica por parte del prestador de servicios. Y aquellas páginas personales que, para financiarse, ofrecen enlaces a portales con contenido comercial o publicitario también podrían caer bajo una cierta interpretación de lo que es y no es comercial.
Así, esta misma lección inaugural, al ofrecer enlaces electrónicos con sitios y portales que pueden estar asociados a banners publicitarios (que difícilmente se pueden evitar cuando se está haciendo referencia a una amplia gama de fuentes de información en la red), podría caer bajo la guillotina del censor administrativo a quien no le gustaran ciertas afirmaciones o que, simplemente, no las entendiera y decidiera prohibir por si acaso, como solía ocurrir en la España franquista. Más aún, teniendo en cuenta la importancia de las sanciones previstas en la normativa, con multas de hasta 600.000 euros para los prestadores de servicios, la actitud lógica de la mayoría de ellos podría ser la autocensura en caso de duda, de modo que la capacidad de expresión en Internet, a partir de los servidores basados en España, se vería fuertemente limitada (pero no así, como el mismo caso de Kriptópolis indica, la de aquellas empresas u organizaciones con capacidad para alojarse en un servidor extranjero y más concretamente estadounidense, puesto que es en Estados Unidos donde Internet goza de mayor protección judicial).
En estos momentos, el debate social y parlamentario continúa en la sociedad, en las instituciones y en la red, y es probable que haya nuevas modificaciones y aclaraciones en la ley definitiva. Pero la experiencia es rica en enseñanzas, de las que quiero resaltar tres.
La primera es el considerable nerviosismo de las administraciones, alentado desde las burocráticas instituciones europeas, sobre su posible pérdida de control de las actividades en la red, nerviosismo favorecido por el desconocimiento y la falta de familiaridad con el medio Internet. Como señala el abogado de Kriptópolis, Sánchez Almeida, ya existen suficientes normativas para proteger los derechos de los ciudadanos y penalizar las conductas delictivas, dentro y fuera de la red. Basta con aplicarlas. El problema puede ser técnico, la dificultad de aplicar esas sanciones en la red, lo cual requiere una modernización de las instituciones judiciales y policiales. Pero ante la dificultad de esa modernización se intenta resolver el problema descentralizando la censura previa a la estructura de prestadores de servicios y haciéndolos responsables de las excepcionales infracciones que puedan representar algunos contenidos. Es como hacer responsables a los propietarios de las imprentas por las consecuencias que pudieran resultar de la publicación de ciertos artículos en la prensa. O a los operadores de telecomunicaciones por las conversaciones telefónicas entre mafiosos que planean un robo.
Mi segunda observación se refiere a la postura ideológica defensiva de los reguladores de Internet. Se multiplican las fórmulas precautorias para afirmar la importancia de Internet y de su libre expresión, en línea con la ideología liberal que predomina en la mayoría de los gobiernos europeos, cualquiera que sea su tendencia política. Pero los viejos reflejos estatistas se combinan con esa ideología, llevando a formulaciones ambiguas y políticas titubeantes, cuya plasmación legislativa contribuye a la confusión.
En tercer lugar, es notable la capacidad de reacción de la comunidad internauta a cualquier intento de coartar su libertad. No tendrán la vida fácil quienes aún piensen que las instituciones del Estado pueden continuar operando como antes del desarrollo de Internet.
Ahora bien, la defensa de la libertad en Internet tiende a ser selectiva. Se reacciona contra el Estado, pero se descuida la defensa de la libertad de los usuarios, de los ciudadanos y de los trabajadores, en un mundo en que los abusos de poder y la desigualdad no han desaparecido ante la magia de la red. Por un lado, muchos prestadores de servicios imponen condiciones económicas leoninas para acceder a la red, invaden la privacidad de sus usuarios y organizan enlaces en la red según sus intereses comerciales, por ejemplo, jerarquizando los web sites en los buscadores. Por otro lado, los derechos sindicales de expresión en la red están siendo ignorados en muchas empresas, como denuncia, entre otras, la campaña sobre este tema llevada a cabo en el 2001 por Comisiones Obreras de Cataluña. En suma, la libertad en Internet, como en la sociedad, es indivisible. La defensa de la libre expresión y comunicación en la red debería alcanzar a todo el mundo, a los consumidores, a los trabajadores, a las organizaciones cívicas. Y en esa libertad parece normal incluir las condiciones materiales de dicha libertad, empezando por las tarifas de conexión y la difusión de los medios informáticos de comunicación en el conjunto de la población. La libertad sin igualdad se convierte en privilegio y debilita los fundamentos de su defensa por parte de la sociedad en su conjunto.
Encriptación
Las organizaciones de poder, a lo largo de la historia, han hecho del secreto de sus comunicaciones un principio fundamental de su actividad. Dicho secreto se intentó proteger mediante la encriptación, es decir, la codificación del lenguaje mediante una clave secreta sólo conocida por la organización emisora del mensaje y el destinatario del mensaje determinado por dicha organización. El anecdotario histórico abunda con ejemplos de batallas e, incluso, guerras supuestamente perdidas o ganadas mediante la interceptación y desencriptación de mensajes decisivos entre los centros de poder. El origen de la informática contemporánea durante la Segunda Guerra Mundial parece estar relacionado con los esfuerzos de matemáticos extraordinarios, como el inglés Turing, para desarrollar algoritmos capaces de descifrar los códigos del enemigo.
Por tanto, en cierto modo, no es de extrañar en la era de la información, basada en la comunicación de todo tipo de mensajes, que el poder (y, por tanto, la libertad) tenga una relación cada vez más estrecha con la capacidad de encriptar y descifrar. Hete aquí que lo que era una arcana tecnología matemática relegada a los dispositivos secretos de los servicios de inteligencia de los Estados se haya convertido, en el espacio de dos décadas, en la tecnología clave para el desarrollo del comercio electrónico, para la protección de la privacidad, para el ejercicio de la libertad en la red y, también, paradójicamente, para nuevas formas de control en la red. La encriptación es el principal campo de batalla tecnológico-social para la preservación de la libertad en Internet.
Trataré de explicar el sentido de esta afirmación. Y lo haré utilizando una somera referencia histórica al desarrollo de la encriptación en la sociedad en las dos últimas décadas, con especial referencia a Estados Unidos. Como documenta Steven Levy (2001) en su apasionante libro sobre el tema, la tecnología de encriptación estaba monopolizada en todos los países por los servicios de inteligencia, que tenían a su disposición una legión de matemáticos de primer orden, y, en cuanto aparecieron los ordenadores, las mejores y más potentes máquinas a su servicio. Con la ayuda de dichas máquinas, los matemáticos construían claves difíciles de penetrar y, al tiempo, procesaban a gran velocidad una enorme combinatoria para encontrar los puntos débiles (patrones repetitivos que pudieran desvelar la clave secreta) en los mensajes cifrados de otras organizaciones.
En Estados Unidos, la supersecreta National Security Agency (con poderes mucho más extensos que los del FBI o la CIA) fue y es la que dispone de la mayor capacidad tecnológica de encriptación/desciframiento del planeta. Tal importancia se le atribuyó a esta tecnología que se clasificó en el rubro de armamento que no se podía exportar fuera de Estados Unidos sin un permiso especial del Departamento de Defensa. De modo que enviar una fórmula matemática a un colega fuera de Estados Unidos se convirtió en un delito penado por la ley. Más aún, la NSA tuvo buen cuidado de cooptar, contratar o amenazar a aquellos matemáticos que se adentraron en ese complejo campo de investigación. Pero hubo quienes resistieron a la presión y se atrevieron a desarrollar fórmulas autónomas de encriptación. Tal fue el caso del legendario Whitfield Diffie, un matemático sin carrera académica, obsesionado por la encriptación desde joven, que, en colaboración con un profesor de Stanford, Marty Hellman, y con la ayuda de un estudiante de Berkeley, Ralph Merkel, descubrió, a mediados de los setenta, nuevas formas de encriptación y, pese a las presiones del gobierno, las publicó. Su genialidad consistió en el llamado principio de la doble clave o clave pública. Hasta entonces, toda clave se basaba en un algoritmo que permitía cifrar un mensaje de forma difícil de reconocer y, al mismo tiempo, reconstruirlo en su sentido original basándose en el conocimiento de dicho algoritmo. Este método tradicional requería una centralización total del sistema de claves únicas y, por tanto, era vulnerable a quien penetrara en esa base de datos. Lo que se adaptaba al secreto militar de una organización separada de la sociedad no era practicable en una sociedad en que todo se basaba en comunicación electrónica y en que los individuos, las empresas y las propias instituciones necesitaban una protección cotidiana de sus mensajes para garantizar su privacidad y su autonomía. Esto requería una descentralización e individualización del sistema de encriptación. Mediante el principio de la doble clave, cada persona u organización tiene dos claves de encriptación (o sea, códigos informáticos que permiten transformar el texto de un mensaje en un sistema digital que altera el sentido lingüístico y lo puede volver a reconstruir).
Una de las claves es pública en el sentido de que es asignada al originario/destinatario de un mensaje y que se conoce, mediante un listado, qué clave corresponde a quién. Pero, sin el conocimiento de la clave privada, es muy difícil, si no imposible, descifrar el mensaje. Esa otra clave es específica a cada individuo u organización, sólo quien la detenta la puede utilizar, pero sólo sirve con relación a su clave pública en la que recibe el mensaje. Mediante este ingenioso sistema matemático, se garantiza a la vez la generalidad del cifrado y la individualidad de su desciframiento.
Como en otros temas de la historia de Internet, el poder de encriptación descentralizado recibió dos usos. Por un lado, fue comercializado. Por otro, sirvió como instrumento de construcción de autonomía de redes de comunicación. La comercialización, en su origen, corrió a cargo de tres matemáticos de MIT o asociados a MIT, Rivest, Shamir y Adleman, que perfeccionaron el sistema de encriptación Diffie-Hellman y, con ayuda de hombres de negocios más avezados que ellos, patentaron y desarrollaron la tecnología de encriptación RSA, que sirvió de base para buena parte de las tecnologías de protección de las comunicaciones electrónicas que se utilizan hoy en día.
En efecto, a partir del sistema de doble clave, no sólo se puede preservar el secreto del mensaje sino establecer la autenticidad de su originario. De modo que la encriptación es la base de las firmas digitales que permiten el desarrollo del comercio electrónico en condiciones de relativa seguridad. En efecto, si la gente pudiera encriptar sus mensajes en lugar de enviar un mensaje por correo electrónico con su número de tarjeta de crédito abierto a todo el mundo, no tendrían por qué temer su interceptación y mal uso. Esto es, en realidad, lo que hacen las grandes empresas con capacidad de encriptación para transferir fondos y comunicarse mensajes confidenciales. Pero la tecnología de autentificación y firma digital se está difundiendo bajo el control de las empresas e instituciones, sin transmitir la capacidad autónoma de encriptación a los usuarios. Ello es así, por un lado, porque la comercialización de la tecnología creó un sistema de patentes que la hacen costosa en su uso comercial.
Pero, más importante todavía, las administraciones de casi todos los países han puesto enormes cortapisas a la difusión de la tecnología de encriptación por lo que ello representa de posible autonomía para los individuos y organizaciones contestatarias con respecto a los gobiernos y a las grandes empresas. De ahí que se desarrollara una segunda tendencia, de matriz libertaria, para proporcionar a los ciudadanos la tecnología de encriptación. Un personaje fundamental en este sentido fue Phil Zimmerman, otro matemático rebelde que, en 1991, en respuesta a los intentos del Senado estadounidense de prohibir la encriptación en el marco de la legislación antiterrorista, difundió en Internet su sistema PGP (Pretty Good Privacy). PGP está también basado en principios similares a los inventados por Diffie y Hellman, pero en lugar de crear un directorio de claves públicas se basa en una red autónoma de autentificación en la que cada persona autentifica con su firma digital a una persona que conoce y así sucesivamente, de modo que, con conocer bien a una persona de la cadena, dicho conocimiento es suficiente para saber que la identidad del detentor de una determinada clave pública es fidedigna. Zimmerman sufrió persecución judicial por su gesto, pues, naturalmente, la publicación en Internet supuso que mucha gente en todo el mundo registrara las fórmulas en su ordenador, lo que, desde el punto de vista jurídico, equivalía a exportar armamento sin licencia, aunque Zimmerman no se beneficiara de la operación. También la empresa comercializadora de RSA lo amenazó judicialmente por utilizar conocimientos que habían patentado los investigadores de MIT (pero no Diffie y Hellman, los primeros innovadores de la tecnología). Zimmerman pertenecía a una red informal de criptógrafos que se reunían anualmente en un movimiento contracultural (autodenominados cypherpunks) y que aumentaron su número e influencia con el advenimiento de Internet. Uno de los participantes más respetados en este movimiento tecnolibertario es John Gilmore, uno de los pioneros de Sun Microsystems, que, en 1990, creó, junto con Mitch Kapor y John Perry Barlow, la Electronic Frontier Foundation, una de las principales organizaciones de defensa de las libertades en el mundo digital. Es significativo el discurso que sobre la encriptación pronunció John Gilmore en 1991 en una reunión sobre "ordenadores, libertad y privacidad":
"¿Qué tal si creáramos una sociedad en la que la información nunca pudiera ser registrada? ¿En la que se pudiera pagar o alquilar un vídeo sin dejar un número de tarjeta de crédito o de cuenta bancaria? ¿En la que pudiera certificar que tiene permiso de conducir sin dar su nombre? ¿En la que se pudiera enviar o recibir un mensaje sin revelar la localización física, como una casilla postal electrónica? Éste es el tipo de sociedad que quiero construir. Quiero garantizar, con física y matemáticas, no con leyes, cosas como la verdadera privacidad de las comunicaciones personales [...] la verdadera privacidad de los expedientes personales [...], la verdadera libertad de comercio [...], la verdadera privacidad financiera [...] y el verdadero control de la identificación" (citado por Levy, 2001; pág. 208).
Esta utopía de la libertad sin instituciones, mediante el poder de la tecnología en manos de los individuos, es la raíz de los proyectos libertarios en la sociedad de la información. Es una poderosa visión que informó proyectos empresariales y sociales a lo largo de la siguiente década. Por ejemplo, uno de los personajes más innovadores del mundo de la criptografía, David Chaum, desarrolló el dinero digital sin huella personal y fundó en Holanda una empresa, Digicash, para comercializar su invento. La empresa fracasó por falta de apoyos en el mundo empresarial, que siempre desconfió de su carácter visionario.
Pero, del mundo de los cypherpunks, como se autodenominaron los anarcocriptógrafos, salieron tecnologías de protección de la privacidad a través de los diseños de anonimato en la red mediante los remailers, es decir, programas que retransmiten automáticamente los mensajes a través de un circuito de servers hasta borrar los orígenes de procedencia de los mensajes (www.anonymizer.com). El más avanzado diseñador de estos remailers en los años noventa fue, en 1993, el informático finlandés Julf Helsingius, que desarrolló sistemas de remail desde su casa de Helsinki para permitir la libre comunicación de alcohólicos en rehabilitación sin riesgo a ser identificados. Creó Penet, un sistema que opera en una máquina UNIX con un 386, y sin ningún tipo de publicidad empezó a recibir miles de mensajes de todo el mundo que, transitando por su sistema, borraban todo rastro. La ingenuidad de hacker de Helsingius acabó obligándolo a cerrar su servidor cuando una querella criminal contra él, efectuada desde Los Ángeles, llevó a la policía finlandesa hasta su casa. Negándose a ejercer la censura y a denunciar los orígenes de las rutas que llegaban a su servidor, prefirió cerrar Penet. Sin embargo, la idea de anonimizadores continuó desarrollándose y, en estos momentos, hay numerosas empresas (de las cuales la más conocida es la canadiense Zero Knowledge) que permiten a cualquiera utilizar Internet sin dejar huella (www.silentsurf.com).
Si tal posibilidad se generalizara, la libertad de las personas para comunicarse, expresarse y organizarse sería total. De ahí las diversas iniciativas en los gobiernos de todo el mundo para controlar la capacidad de encriptación y para limitar su uso.
Sin embargo, los términos del debate no son tan claros, porque la tecnología de encriptación sirve a la vez para proteger la privacidad (garantizando, por tanto, la libertad de comunicación) y para autentificar lo originario de un mensaje, permitiendo, por consiguiente, individualizar los mensajes (www.qsilver.queensu.ca/sociology). Más aún, en los movimientos contestatarios en torno a Internet, tales como la red Freenet, se produjo, en el año 2000, una evolución desde la defensa del derecho a encriptar (para proteger la privacidad del ciudadano) hacia el derecho a descifrar (para permitir el acceso de los ciudadanos a la información detentada por gobiernos y empresas). Ahora bien, en cualquier caso, la práctica de ambos derechos pasa por la capacidad autónoma de la gente para utilizar las tecnologías de encriptación. Esto significa, por un lado, el libre desarrollo de tecnologías de encriptación en comunicación horizontal del tipo PGP, a saber, con doble clave y autentificación mediante redes de confianza interpersonal. Por otro, requiere la capacidad de libre difusión de la información de tecnologías de encriptación en la red. Tanto la administración estadounidense como el G8 y el Consejo de Europa (además de los sospechosos habituales de la censura, a saber, China, Singapur, Malasia, los países islámico-fundamentalistas, etc.) se han pronunciado a favor del control burocrático de la tecnología de encriptación y están desarrollando legislación y medidas administrativas para conseguirlo.
En realidad, a pesar de lo que piensen los tecnolibertarios, ninguna tecnología asegura la libertad. Pero de igual manera que el control de los medios de impresión fue en la historia el fundamento de la restricción o expansión de la libertad de prensa, en nuestra época la difusión o control de la tecnología de encriptación se ha convertido en un criterio definidor para saber en qué medida los gobiernos confían en sus ciudadanos y respetan sus derechos.
- * *
¿Cuál es, entonces, la relación entre Internet y libertad? La historia y la cultura de Internet lo constituyeron como tecnología de libertad. Pero la libertad no es una página blanca sobre la que se proyectan nuestros sueños. Es el tejido áspero en el que se manifiestan los poderes que estructuran la sociedad. Al efecto Gilmore se contrapone el efecto Microsoft. Según el primero, Internet interpreta cualquier censura como un obstáculo técnico y tiende a rodearlo. Según el segundo, Microsoft interpreta cualquier proceso de comunicación como oportunidad de negocio y tiende a monopolizarlo. A las aspiraciones de libertad se contraponen los instintos básicos de las burocracias políticas, cualesquiera que sean sus ideologías. Y a liberación de la humanidad por la tecnología de la información se contrapone la realidad presente de una humanidad mayoritariamente desinformada y marginada de la tecnología.
Internet, en nuestro tiempo, necesita libertad para desplegar su extraordinario potencial de comunicación y de creatividad. Y la libertad de expresión y de comunicación ha encontrado en Internet su soporte material adecuado. Pero tanto Internet, como la libertad, sólo pueden vivir en las mentes y en los corazones de una sociedad libre, libre para todos, que modele sus instituciones políticas a imagen y semejanza de su práctica de libertad.
Referencias bibliográficas
CASTELLS, M.; KISELYOVA, E. (1995). The collapse of the Soviet Union: the View from the Information Society. Berkeley: University of California, International & Area Studies Book Series.
HAFFNER, K.; MARKOFF, J. (1995). Cyberpunks: outlaws and hackers in the computer frontier. New York: Touchstone Books.
HIMANEN, P. (2001). The hacker ethic and the spirit of the Information Age. Prólogo de Linus Torvalds. New York: Random House (en castellano, Destino, 2002).
LESSIG, L. (1999). Code and other laws of cyberspace. New York: Basic Books (en castellano, Taurus, 2001).
LEVY, S. (1984). Hackers. Heroes of the computer revolution. New York: Penguin.
LEVY, S. (2001). Crypto. How the code rebels beat the government - saving privacy in the digital age. New York: Viking.
RAYMOND, E. (1999). The cathedral and the bazaar. Musings on Linux and Open Source by an accidental revolutionary. Sebastopol, California: O' Reilly (en castellano, Alianza Editorial, 2002).
RHEINGOLD, H. (1993/2000). The virtual community. Homesteading in the electronic frontier. Cambridge, Massachussets: MIT Press.