LA CONQUISTA SILENCIOSA DEL CIBERESPACIO

CREATIVE COMMONS Y EL DISEÑO DE ENTORNOS DIGITALES

COMO NUEVO ARTE REGULATIVO EN INTERNET

 

 

 

 

 

ARIEL VERCELLI

 

 

 

 

Marzo de 2004

Ciudad Autónoma de Buenos Aires, Argentina

 

 

 

 


 

 

 

 

 

 

Copyright © 2004 Ariel Hernán Vercelli

 

 

 

 

         La presente versión digital de ‘La Conquista Silenciosa del Ciberespacio: Creative Commons y el diseño de entornos digitales como nuevo arte regulativo en Internet’ está licenciada bajo una licencia de Creative Commons que permite solo usos no comerciales de la obra y en todo momento requiere dar al creador de la obra la atribución correspondiente. Para más información sobre esta licencia visite la siguiente dirección de Internet:

 

< http://creativecommons.org/licenses/by-nc/2.0/ >

 

         Cualquier uso comercial sobre esta obra debe ser previamente consultado, expresamente autorizado, y exclusivamente contratado con el autor y titular del copyright. Puede encontrar mayores especificaciones sobre el autor y las condiciones de esta licencia visitando:

 

< http://www.arielvercelli.org/ >

 

 

 

 

 

 


 

 

 

 

 

 

 

 

 

 

 

 

A los que aman la libertad. A los que defienden sus libertades. Para aquellos que, a pesar de abismos y cumbres, luchan silenciosamente por nuestras libertades. A los libertadores.

 

 

 

 

 

 

 

 

 

 

 


Agradecimientos

 

 

Quiero agradecer especialmente a María Celeste Rodríguez López por su apoyo y vitalidad. A mis padres Elena Emanuele y Cesar Vercelli, a mi hermano Amilcar Vercelli, y a mis tíos Elida Penecino y Eduardo Vercelli, puesto que sin su ayuda incondicional lo difícil podría haberse transformado en imposible. Mi gratitud para la Lic. Julia Buta quien supo guiarme y aconsejarme durante el transcurso de mi trabajo. Mis agradecimientos a los profesores de la ‘Maestría en Ciencia Política y Sociología’ de ‘FLACSO Argentina’. También a Susana Finquelievich y las colegas del ‘Programa de Estudio sobre la Sociedad de la Información’ del ‘Instituto de Investigaciones Gino Germani’, ‘Universidad de Buenos Aires’, con quienes compartí estos años de trabajo. Mi reconocimiento a Alejandro Piscitelli y a los/as colegas del ‘Taller de Informática, Telemática y Procesamiento de Datos’ de la ‘Carrera de Comunicación’ de la ‘Universidad de Buenos Aires’. Mi gratitud a la Dra. Lucía Aseff y al ‘Centro de Estudios e Investigaciones en Derecho Humanos’ de la ‘Facultad de Derecho’ de la ‘Universidad Nacional de Rosario’, donde me inicié como docente e investigador. Agradezco la confianza, el apoyo y las becas recibidas, a la ‘Agencia Nacional de Promoción Científica y Tecnológica’ (ANPCyT) de Argentina; al ‘Berkman Center for Internet and Society’ de la ‘Universidad de Harvard’, Estados Unidos de Norteamérica; a la ‘Agencia Internacional de Cooperación y Desarrollo’ (AICD) de la ‘Organización de Estados Americanos’ (OEA); a la Agencia de ‘Coordenação de Aperfeiçoamento de Pessoal de Nível Superior’ (CAPES) de Brasil; y a los organizadores del ‘Tercer Congreso Mundial de Redes Ciudadanas’ realizado en Montreal, Canadá. Finalmente, quiero agradecer a todos aquellos que de una u otra forma, directa o indirectamente, interesada o desinteresadamente, me han ayudado durante estos años de intenso trabajo.

 

 

 

 

Resumen

        

 

La conquista silenciosa del ciberespacio explora una de las tendencias más profundas en el gobierno de nuestras sociedades: a saber, el cambio de paradigma regulativo que emerge en el heterogéneo campo de las regulaciones en Internet. El trabajo analiza las luchas, tensiones y estrategias políticas que enfrentan la apertura y la libertad, con la clausura y el control en las capas superiores de Internet. No descarta las formas políticas clásicas o evidentes, sin embargo, esta más atraído por las profundas mediaciones técnicas que regulan espacios y conductas de forma silenciosa. Describe la emergencia de un nuevo arte regulativo que, articulando diferentes reguladores, crea y diseña el ciberespacio al mismo tiempo que lo regula. Muestra como este arte regulativo, a diferencia de la reactiva regulación jurídica, se apoya en estrategias proactivas, abiertas y transparentes, que son producidas en laboratorios con el objeto de gobernar la tensión entre el diseño de nuevos entornos digitales y los (re)diseños que logran los usuarios productores finales gracias a la arquitectura simétrica de Internet. Finalmente, ausculta el laboratorio Creative Commons, una organización-neo-gubernamental que, a través del nuevo arte regulativo, lucha por un ambientalismo digital creativo, diverso y libre en las capas superiores de Internet.

 

 

 

 

 

Índice Temático


 

Agradecimientos

II

 

 

Resumen

IV

 

 

Índice Temático

V

 

 

Introducción: Lo que vendrá, el diseño de un futuro incierto

2

 

 

A.     Presentación del tema

2

B.     Motivación personal y situación problemática

7

C.    Objetivos, estructura analítica e hipótesis del trabajo

13

D.    Metodología y diseño de la investigación

18

 

 

Capítulos:

 

 

 

1)     El campo de las regulaciones en Internet y su nuevo arte regulativo

 

35

 

A.     La profundidad de las mediaciones técnico regulativas

35

B.     El campo de las regulaciones en Internet

44

C.     Los reguladores de espacios y conductas

56

D.     La (de)codificación de los reguladores clásicos

63

E.     El código como regulador del ciberespacio

72

 

 

    2)  La política silenciosa de las arquitecturas

81

 

 

A.     Las arquitecturas como instancias políticas

81

B.     La arquitectura originaria y los productores del entorno

89

C.     La red distribuida: el packet switching

100

D.     La apertura del TCP/IP

103

E.     El principio de la incertidumbre: E2E

107

F.     El control sobre las capas analíticas de Internet

116

 

 

    3)  El laboratorio Creative Commons y su arte regulativo

125

 

 

A.     Las mediaciones técnico regulativas libres, abiertas y privadas

125

B.     Las nuevas luchas por la propiedad (¿intelectual?)

137

C.     Un laboratorio llamado Creative Commons

149

D.     Some Rights Reserved (Algunos Derechos Reservados)

155

E.     Regulando a través del código

161

F.     Codificaciones privadas y codificaciones públicas

166

 

 

Conclusiones: Las reglas han cambiado y éste es solo el comienzo

171

 
 
Bibliografía
187

 

 

 

 

 

Introducción:

 

 

Lo que vendrá, el diseño

de un futuro incierto

 

 

A) Presentación del tema

 

Con la fuerza de un destino, bajo el signo de lo irreversible, hoy más que en otros momentos históricos presentimos que los cambios técnico políticos de nuestras sociedades son dinámicos, constantes e irrefrenables. Intuimos que nuestra acción política distribuida decide el futuro de aquello que vendrá, de lo que existe hoy, de nuestro entorno sociotécnico común. Sabemos que el ciberespacio se expande, se contrae, cambia y evoluciona rápidamente gracias a haber desactivado el control centralizado mediante una arquitectura de inteligencia distribuida, aunque justamente por ello, por fortuna, no nos brinda la certidumbre de como, ni por qué se producen estos cambios. Nos enfrentamos a una seductora complejidad que, sin embargo, no disminuye nuestra curiosidad como investigadores, ni desalienta la acumulación de pequeñas -pero vitales- certidumbres. Al iniciar este trabajo, una de las certidumbres que tengo es que, en tiempos de Internet, algunas libertades esenciales de nuestras sociedades dependen directamente de las nuevas formas regulativas emergentes. La red de redes que hoy conforma Internet tiene un pasado profundo, un presente vertiginoso y, sin dudas, un futuro incierto. Si bien no podemos asegurar como será su futuro, si estamos en condiciones de afirmar que las regulaciones tendrán un rol fundamental para la ecología informacional de Internet. Afortunadamente, tanto el presente como el futuro de Internet son todavía políticamente moldeables, puesto que la red no ha alcanzado aún un nivel de estabilidad, solidificación e irreversibilidad que probablemente alcanzará en un futuro inmediato si las regulaciones se vuelven dispositivos cerrados, crípticos, opacos.

Algunas regulaciones diseñaron y decidieron partes esenciales de Internet, muchas de estas históricas regulaciones todavía hoy gobiernan silenciosamente su presente. Mi trabajo tiene por objeto auscultar aquellas regulaciones que, diseñadas en laboratorios, procuran hoy la conquista silenciosa del ciberespacio. Las formas de gobierno involucradas en esta conquista silenciosa articulan formas regulativas clásicas junto al diseño de lo que –genéricamente- llamamos tecnología. Esta unión entre las clásicas formas regulativas y el diseño de los entornos digitales, puede volverse un problema político aún más grave que aquel que observamos hoy en las formas políticas clásicas a nivel mundial. Las regulaciones que articulan diferentes instancias políticas con el diseño y producción de la tecnología pueden volverse regulaciones asfixiantes, cada vez más crípticas, oscuras y menos accesibles a la decisión colectiva. Estas regulaciones pueden transformase en dispositivos mucho más cerrados e inaccesibles que las regulaciones jurídico clásicas que hemos conocido hasta nuestro días. Por tanto, invito al lector recorrer un camino sinuoso, tan fascinante como irreversible, que describe y explora las actuales tendencias dentro del gobierno de nuestras sociedades. Me aboco a explorar el campo de las regulaciones en Internet, un campo heterogéneo y complejo, compuesto por nuevas formas políticas alternativas que enfrentan la apertura y la libertad, con la clausura y el control en el espacio Internet. Asimismo, me propongo describir la emergencia de un nuevo arte regulativo que crea y diseña el ciberespacio al mismo tiempo que lo regula.

Nuestra condición humana esta sostenida desde hace siglos por el desarrollo tecnológico flexible de nuestro entramado social. Nuestras sociedades están compuestas por cierto tipo específico de regulaciones silenciosas que van ensamblando nuestras prácticas de una forma estable y duradera. Puedo afirmar que todas las regulaciones son piezas fundamentales para (de)codificar la práctica social y su estudio permite comprender como es que nuestras sociedades aceptan, favorecen o prohíben conductas, o bien, habilitan o restringen el acceso a las redes electrónicas. De hecho, cualquier regulación puede mostrarnos este horizonte complejo donde las sociedades parecen constituirse, ensamblarse y mutar mediante procesos dinámicos. Sin embargo, solo explorando las regulaciones en sus partes estables, silenciosas, a través de los dispositivos que se encuentran ocultos, podemos intuir el incierto devenir, aquel futuro inmediato que no logra diferenciarse del tiempo presente. Para ello, es necesario captar la dinámica de la práctica cotidiana, aquello que sucede en los extremos, en los márgenes, aquella práctica mínima de los que producen el espacio de una forma constante. Por ello, me he sentido atraído por aquellas regulaciones poco evidentes, por aquellas que se hayan ocultas, que están silenciadas. Sepa el lector que la investigación no descarta las formas políticas clásicas y evidentes, sin embargo, el enfoque esta atraído por las profundas mediaciones técnicas que regulan espacios y conductas de forma imperceptible.

Nuestras sociedades están compulsivamente abocadas a controlar las posibles e inciertas consecuencias de las prácticas sociales. La obsesión por el control es omnipresente, aunque a decir verdad, de tan común, no siempre logra ser percibida como tal. Esta obsesión por las respuestas anticipadas, esta ansiedad por el control, conforma una matriz político-social que caracteriza las sociedades capitalistas. Esta es una de las razones por las que analizo el campo de las regulaciones en Internet, un campo de fuertes tensiones políticas, que concentra las decisiones pasadas y el presente de nuestra ecología informacional. El mismo contiene las diferentes técnicas que estructuran el futuro cultural de nuestras sociedades y de allí su importancia. El campo de las regulaciones esta compuesto por la convergencia de técnicas regulativas que provienen de diferentes tiempos y espacios. Este es justamente su secreto y nuestra dificultad al momento de abordarlo. Por ello, considero que este campo debe ser analizado desde una perspectiva multi-disciplinar [1] . El lector, acertadamente, podrá intuir que no existe manera de abordar semejante complejidad. Sin embargo, ello no obsta a que, mediante esta investigación, pueda mostrar de forma clara algunos de los procesos involucrados, algunas de las más importantes consecuencias políticas de estas formas alternativas de gobierno. Alguien tiene que dar los primeros pasos en este camino, puesto que, como suele decirse dentro del movimiento del software libre: “si no lo hacemos nosotros, ¿entonces quien?”

El riesgo vale la pena, más aún cuando comprendemos la importancia vital que el campo de las regulaciones tiene para nuestro futuro común. Las sociedades discuten, defienden y se obsesionan con la libertad justo en momentos en que las condiciones que la produjeron comienzan a desaparecer. Todo parece indicar que esta es la tendencia actual de Internet. Desde hace unos años la red originaria, abierta, libre y transparente, está entrando en una etapa de clausura. Tal vez el desarrollo futuro de Internet consolide la tragedia de los espacio comunes, la clausura de los bienes intangibles de la mente, el control sobre esta inteligencia conectiva común. Las discusiones actuales en el campo de las regulaciones en Internet dividen claramente entre, sociedades abiertas, de libre acceso, y sociedades cerradas, de acceso restringido. Las decisiones políticas sobre el paradigma regulativo que gobernará Internet se encuentran en una disyuntiva entre dos modelos opuestos. Internet esta moviéndose rápidamente, como afirman entre otros, Lessig (2001), Stallman (2002), Boyle (2003), de un paradigma de libertad, desarrollado a través de su arquitectura originaria, hacia otro paradigma basado en tecnologías de control, el que supuestamente garantizaría la seguridad y certeza necesarias para el tráfico mercantil.

El trabajo esta abocado a auscultar estas tendencias a través de los diferentes dispositivos técnico políticos involucrados en la regulación de la red. Me interesa, específicamente, evidenciar la nueva forma político regulativa que esta emergiendo en el ciberespacio. En este sentido, me aboco no solo a la auscultación de los reguladores clásicos, como las leyes o el mercado, sino que opto por analizar la relación que estos tienen con la nueva codificación (code) que, según Lessig (1999), esta construyendo y gobernando el ciberespacio. Mi perspectiva de análisis está más atraída por las formas regulativas ocultas, o sea, por aquellas que son silenciadas en la práctica cotidiana y están compuestas por los dispositivos sociales que naturalizan las normas en los extremos. Más que interesado en las formas ficcionales de regulación jurídico clásica, en aquellas ancladas en una lógica reactiva, me interesan las formas regulativas proactivas, aquellas que conforman el ciberespacio tal como hoy podemos observarlo. Me interesan las negociaciones imperceptibles, como afirma Latour (2001), aquellas que no pueden ser abarcadas por las perspectivas jurídico clásicas de la modernidad. Voy en busca de regulaciones profundas, de aquellas que movilizan redes infinitas y que estructuran el mundo mediante arquitecturas flexibles e irreversibles a la vez. Este es el camino y en esta dirección oriento mi análisis.

 

B) Motivación personal y situación problemática

 

Si bien en un corto lapso temporal se ha desarrollando una abundante producción escrita sobre el campo de las regulaciones en Internet, pocos son los trabajos que han arriesgado un marco teórico serio para abordarlo. Dichas producciones, lamentablemente, entienden las regulaciones exclusivamente desde una perspectiva jurídica que hoy en día se muestra obsoleta. Solo hacen referencia a las leyes como formas regulativas, se abocan a describir los procesos políticos clásicos y repiten acríticamente los argumentos absurdos y falaces que las corporaciones comerciales y gobiernos nacionales producen y reproducen a través de pánicos morales a nivel global. Producto de esta situación el campo de las regulaciones se encuentra con un claro déficit: es difícil en él identificar claramente las técnicas regulativas, los objetivos, los intereses a proteger, aquellos actores involucrados, o bien las consecuencias que las diferentes regulaciones pueden traer a gran escala. Solo algunos pocos trabajos, a los que me refiero a lo largo de esta tesis, han tomado el riesgo de tentar nuevas perspectivas de análisis sobre este campo. Afortunadamente, existen fuertes indicios que indican que estas perspectivas clásicas, hoy ya anacrónicas, serán rápidamente dejadas de lado en el abordaje del campo de las regulaciones. Espero que mi trabajo contribuya a estos fines.

Si el campo de las regulaciones jurídico clásicas es un área de vacancia en las principales agencias de ciencia y tecnología a nivel mundial, las nuevas formas regulativas, aquellas que articulan diferentes reguladores, parecen pertenecer directamente a estudios del oscurantismo medieval. Soy conciente de estar trabajando en un área de vacancia y de los riesgos que ello implica. Mas aún, es justamente ésta la razón fundamental que guía el desarrollo de mi investigación y conforma la motivación principal que me lleva a intentar desarrollar partes valiosas de un marco teórico que pueda aportar luz a estos procesos crípticos a nivel global. Digámoslo directamente, estamos frente a un riesgo histórico muy grande. Las regiones que no desarrollan tecnologías se verán excluidas de las discusiones del campo de las regulaciones de Internet. Esta situación se agrava aún más en los países que subestiman el desarrollo de conocimiento científico. Solo las regiones que poseen las condiciones para desarrollar formas regulativas complejas, aquellas que articulan diferentes reguladores, pueden intervenir en las nuevas formas políticas del ciberespacio. El error tantas veces repetido, oculto, poco evidente, es subestimar el impacto que las mediaciones técnicas tienen sobre el desarrollo de nuestras sociedades. Dicho de otro modo, no se comprenden los procesos tecnológicos de las tecnologías y por ello, tampoco se comprenden los nuevos procesos regulativos basados en el diseño de entornos digitales.

La situación problemática y su contexto, formulados técnicamente, requieren del análisis histórico de las formas regulativas que gobernaron nuestras sociedades. El derecho fue, de una forma visible y relativamente transparente, el principal regulador dentro del campo de las regulaciones durante muchos siglos. Sin bien la silenciosa y lenta optimización de las normas sociales, la costumbre y otras tecnologías disciplinarias -siguiendo a Foucault (1999)-, fueron cimentando su visibilidad, sin dudas el derecho fue el protagonista por excelencia dentro del campo de las regulaciones. La red interminable de actores que tenían a cargo aquello que podríamos llamar el campo de las regulaciones -como instancia de control de espacios y conductas- estuvo históricamente gobernada por la arquitectura del derecho. A pesar de su reactividad, basada en una lógica ex post facto, el derecho –específicamente el de la modernidad- todavía es una técnica regulativa muy importante. Sin embargo, la ubicación del derecho en la regulación del ciberespacio esta cambiando rápidamente. Tal como la modernidad lo concibió, el derecho no puede dar soluciones concretas a las necesidades emergentes en la regulación del ciberespacio. El derecho moderno ha dejado huérfano el corazón mismo del sistema capitalista al cual, durante siglos, sirvió de regulador frente a la tan preciada seguridad jurídica.

El derecho, y puntualmente sus codificaciones públicas, aparecen hoy como una madeja llena de enredos y contradicciones vacías. A diferencia de lo que ocurría hasta hace unas décadas, ya no puede recurrirse a la ficcional técnica regulativa jurídica en búsqueda de la seguridad jurídica que garantice el tráfico mercantil. Nos encontramos en medio de una crisis política a nivel global, donde la política continúa apegada a las técnicas jurídico discursivas de la arquitectura del derecho moderno. Sin embargo, esta dependencia comienza a verse como una asociación anacrónica. Anclado en generalizaciones bipolares, el modelo político de la soberanía no desaparece, pero al igual que ocurrió en otras épocas, necesita articularse con diferentes dispositivos tecnológicos para estabilizar de forma durable las prácticas sociales y, específicamente, las formas de producción, circulación y tráfico mercantil en la red. Aunque la ley no deja de ser una de la formas válidas de regulación, está perdiendo la potencialidad material y simbólica que supo tener hasta hace solo unas décadas. Vemos emerger nuevos reguladores que no desplazan completamente al viejo derecho, pero logran dominarlo, asociarse con él, y hasta incluso robarle el histórico protagonismo que caracterizó la creencia en su potencialidad regulativa.

Luego de haber despotricado amargamente contra la racionalidad jurídica moderna de las sociedades capitalistas, por los claros formalismos que subliman las condiciones materiales de existencia, paradójicamente, el derecho comienza a extrañarse en el mismo momento que percibimos su metamorfosis. Lo cierto es que, como veremos en los capítulos de nuestro trabajo, las reglas están cambiando rápidamente, y este es solo el comienzo de un cambio profundo en la arquitectura socio-política a nivel global. El derecho, paulatinamente, entra en un olvido de su potencialidad técnico regulativa, producto del exponencial desarrollo tecnológico y de la invasión del mercado hacia las esferas públicas que dominaron la tradición moderna de acceso a los bienes culturales. En otras palabras, el desarrollo tecnológico prescinde de partes esenciales de la construcción histórico política que llamamos derecho. La técnica jurídica clásica solo queda para brindar una suerte de garantía sobre lo que ya está solidificado bajo otras arquitecturas efectivas, aquellas que penetran silenciosamente en nuestro entramado sociotécnico. En su reemplazo emergen nuevas codificaciones privadas que son gobernadas por el diseño de la tecnología y que reconocen las arquitecturas (de redes) como sus instancias políticas.

El campo de las regulaciones comienza a estar gobernado por nuevas formas regulativas que vinculan el viejo derecho con un sofisticado diseño de la tecnología. Emerge un nuevo arte regulativo producto del exponencial desarrollo de las tecnologías digitales que componen Internet. Este proceso se ha vuelto, conciente y omnipresente, en momentos en que se nos presenta como irreversible. Este cambio vertiginoso de paradigma regulativo trae aparejados problemas que ni siquiera son percibidos como tales, puesto que aún no se percibe la profundidad de los cambios políticos de las última décadas. En este sentido, las diferentes situaciones regionales en torno al desarrollo tecnológico –aquel que gobierna el ciberespacio a través de códigos- pasan a ser esenciales para acceder al gobierno de la red a nivel global. A pesar de la gravedad, no todos los actores involucrados perciben la peligrosidad de estos cambios en las formas de gobierno. A decir verdad, en caso que estos actores puedan percibirlos, no todos tendrán la posibilidad de accionar e intervenir sobre este campo de luchas políticas. El espacio donde se libran las batallas por la regulación de Internet es el reino de la producción tecnológica, un reino que en partes importantes comienza a estar dentro del campo de las regulaciones.

Bajo la lógica de producción actual del mercado global el diseño y la producción de tecnologías soluciona, resuelve y estructura el ciberespacio antes que los debates y las problemáticas emerjan. En este sentido, su dinámica deja las románticas mentes modernas a la espera de un debate público -supuestamente racional- que jamás llegará. Como bien ha dicho Lessig (1999), quien maneje la tecnología estará directamente legislando, o mejor dicho, estará construyendo un entorno donde circulará la vida económica, cultural, y política de los siglos venideros. El código que construye el ciberespacio emerge como la nueva forma regulativa que configura la arquitectura de nuestro entorno digital. Las nuevas regulaciones logran fundirse con el diseño de los entornos digitales y comienzan gobernar las conductas y los espacios en Internet a través de un nuevo arte regulativo. A un mismo tiempo, el espacio se diseña, se proyecta y se regula; a un mismo tiempo, las conductas se regulan y se diseña el nuevo entorno digital.

El nuevo paradigma tecnológico es el fiel reflejo cultural de las sociedades que desarrollan la tecnología. Allí es donde, inevitablemente, este nuevo tipo de regulaciones adquiere la importancia que le adjudico en el presente trabajo. Lo cierto es que cada vez menos regiones pueden efectivamente gobernar el desarrollo de las redes informacionales. Debido a ello encontramos, por un lado, regiones, estados y corporaciones que desarrollan tecnología y, por el otro, regiones, estados y corporaciones que se verán incapacitadas de cierta planificación superior. En este sentido, el panorama para América Latina es sombrío, tanto por la falta de desarrollo de tecnología en comunicaciones para gobernar el ciberespacio, como por la perdida de nuestra producción legislativa, que desde hace años no logra retomar siquiera la ingenua creencia en su potencialidad regulativa. Las nuevas formas regulativas, al igual que el derecho y las tecnologías, comienzan a importarse desde las regiones que las producen. Todo indica que nos hallamos en un callejón sin salida. El campo de las regulaciones ha cambiado radicalmente en estos últimos años, pero todavía no se percibe con claridad la peligrosidad que estos cambios implican para las regiones menos desarrolladas a nivel global. Creo necesario, por tanto, describir los cambios radicales en el paradigma regulativo y explorar las tendencias actuales en el campo de las regulaciones en Internet.

 

C)    Objetivos, estructura analítica e hipótesis del trabajo

 

El presente trabajo posee un doble objetivo: a) por un lado, describir el campo de las regulaciones en Internet, las tendencias actuales que producen un brusco cambio de paradigma regulativo y la emergencia de un nuevo arte regulativo en el ciberespacio; b) por el otro lado, explorar las condiciones de producción de las nuevas codificaciones digitales, las redes de actores involucrados, las posibles soluciones a los problemas de cierre de las capas que componen el ciberespacio y, finalmente, explorar el caso del laboratorio Creative Commons. El trabajo se estructura analíticamente mediante una introducción, tres capítulos bien definidos y una conclusión final. La presente introducción intenta ser una descripción detallada, un mapa conceptual del recorrido, donde explicito las preguntas, las hipótesis y muestro la estructura interna del trabajo para que pueda ser tomada, discutida y mejorada. El trabajo continua con tres capítulos bien definidos, los que contienen el desarrollo de los objetivos y las hipótesis intermedias de la tesis principal. Finalizo con diez conclusiones que contienen los resultados de la exploración y algunas reflexiones finales sobre el caso analizado en el capítulo 3. Espero que el trabajo genere los incentivos necesarios para pensar e implementar nuevas alternativas político regulativas sobre nuestro futuro socio-cultural común.

El capítulo primero, el más teórico de los tres, se aboca al análisis y sistematización tanto del campo de las regulaciones en Internet como del nuevo arte regulativo emergente. Comienzo el capítulo auscultando la profundidad de las mediaciones técnico regulativas. Luego, en el segundo apartado, caracterizo el campo de las regulaciones en Internet como nuevo espacio de luchas donde se acumulan las tensiones políticas de los diferentes modelos regulativos. El tercero de los apartados lo dedico a caracterizar y analizar los reguladores de espacios y conductas que gobiernan el ciberespacio: los divido, siguiendo a Lessig (1999; 2001), en reguladores clásicos (leyes, normas sociales y mercado) y el código como regulador específico del ciberespacio. El lector encontrará que el cuarto apartado lo dedico al análisis de las formas de (de)codificación que posee cada uno de los reguladores clásicos. Finalmente, caracterizo el código como regulador proactivo sobre la arquitectura del ciberespacio y defino el nuevo arte regulativo emergente en Internet. La primer hipótesis intermedia puede sintetizarse de la siguiente forma: el campo de las polivalentes mediaciones técnico regulativas en Internet comienza a ser influido por una nueva técnica regulativa que, creada bajo condiciones de laboratorio, emerge como un nuevo arte regulativo que articula viejas formas regulativas, pero que a diferencia de las reactivas regulaciones jurídicas modernas, conforma una técnica proactiva orientada hacia el diseño de los entornos digitales; esta técnica regulativa esta gobernada por la tensión polivalente entre el diseño de nuevos entornos digitales y los usos finales que los usuarios productores logran del ciberespacio.

El segundo capítulo, tal vez el más histórico de los tres, esta dedicado a la política silenciosa de las arquitecturas del ciberespacio. Comienzo el capítulo con el análisis de la arquitectura como instancia política por excelencia dentro del ciberespacio. Luego, en el segundo apartado, caracterizo los productores históricos, pero también los actuales, en la estructuración del entono Internet. Dedico los tres apartados siguientes a describir las bases de la arquitectura originaria de la red, describiendo las tecnologías, las razones históricas y las comunidades involucradas en su desarrollo: en estos tres apartados analizo el packet switching, la apertura que caracterizó el protocolo TCP/IP, y el argumento minimalista End to End (E2E). Finalmente, en el sexto apartado, describo la composición en capas de Internet y exploro el control que cada capa puede absorber sobre los recursos que la componen. La hipótesis intermedia del segundo capítulo puede sintetizarse de la siguiente forma: Internet está dividido en capas independientes que permiten diferentes tipos de control, siendo el control sobre las capas superiores el punto más conflictivo en la actual regulación de nuestra ecología informacional; la arquitectura silenciosa de Internet es la instancia política por excelencia en el campo de las regulaciones de Internet, por lo que el mantenimiento de algunas tecnologías que permitieron un desarrollo abierto, distribuido y trasparente de Internet son todavía esenciales para garantizar algunas libertades de nuestras sociedades.

El tercer capítulo, tal vez el más práctico de los tres, lo dedico a analizar el laboratorio Creative Commons como un emergente de ambientalismo digital en las capas lógica y de contenidos de Internet. El primer apartado indaga las codificaciones históricas que permitieron superar la clausura de la capa lógica en la década del 80. Luego, el segundo apartado, aborda el cierre o clausura en la capa de contenidos y su relación con los derechos de autor a nivel mundial. En el tercer apartado analizo Creative Commons como un laboratorio global que hace uso del nuevo arte regulativo emergente para enfrentar el cierre de la capa de contenidos en Internet. En el cuarto apartado me concentro en las licencias de Creative Commons y, siguiendo el tema en el quinto, me aboco al análisis de las codificaciones que produce Creative Commons. Finalmente, en el sexto apartado, exploro las estrategias del arte regulativo emergente en Creative Commons y las consecuencias futuras para el campo de las regulaciones en Internet. La tercer hipótesis intermedia puede sintetizarse de la siguiente forma: en la década del 80 se produjo un cierre en la capa lógica de Internet, hecho que inicio una etapa de clausura que se continúa hoy en la capa de contenidos; solo a través de la creación de laboratorios que hagan uso del diseño de entornos y articulen los diferentes reguladores mediante tácticas abiertas y subvertoras se podrá superar la etapa de cierre de estas dos capas de la red; Creative Commons, desarrollado como un espacio abierto, cooperativo y comunitario -con una clara ideología libertaria-, es un buen ejemplo de estos laboratorios de diseño de entornos que, mediante codificaciones privadas, participan en el gobierno y conquista silenciosa del ciberespacio.

Luego de la descripción de la estructura analítica y de las hipótesis intermedias del trabajo, paso a enunciar la hipótesis principal. La misma puede presentarse de la siguiente forma: el campo de las regulaciones en Internet concentra desde hace dos décadas las luchas, tensiones y estrategias políticas -llamadas genéricamente regulaciones, o técnicamente, mediaciones técnico regulativas-, que enfrentan la apertura y la libertad, con la clausura y el control en las capas altas del espacio Internet; las nuevas mediaciones técnico regulativas, a diferencia de las reactivas regulaciones jurídico modernas, se basan en estrategias proactivas, abiertas y transparentes, llevadas adelante por laboratorios de diseño entornos que articulan diferentes reguladores para gobernar la arquitectura simétrica de Internet; estas estrategias no descartan los reguladores clásicos, sin embargo se enfocan más en el diseño de entornos abiertos a través de códigos digitales intentando aprovechar la riqueza y diversidad de usos finales de los usuarios productores del espacio; en este contexto han emergido nuevas organizaciones-neo-gubernamentales que, haciendo uso de un nuevo arte regulativo que crea y diseña el ciberespacio al mismo tiempo que lo regula, luchan por la protección del espacio Internet, como una nueva forma de ambientalismo digital; la tensión polivalente entre el diseño de nuevos entornos digitales y los (re)diseños que logran los usuarios productores, vuelve a las silenciosas normas sociales una instancia fundamental en el gobierno del ciberespacio.

 

D) Metodología y diseño de la investigación

 

Explorar las tendencias actuales en el campo de las regulaciones y la emergencia de un nuevo arte regulativo en Internet, tanto por el contexto de la misma investigación, como por la especial condición del objeto de estudio, no ha sido tarea sencilla. Si bien es imposible, y poco pertinente, explicitar todas y cada una de las tareas tangenciales que requirió el presente trabajo [2] , creo importante resaltar que las investigaciones que tienen por objeto de estudio los procesos que se dan en Internet, poseen en si mismas una alta complejidad dada por el contexto donde el investigador debe desarrollar su trabajo [3] . Por tanto, al igual que ocurre con otras investigaciones en Internet, esta investigación está destinada a conformar una tarea inicial, exploratoria, que será continuada, optimizada y actualizada, tanto individual como colectivamente. Internet es, a diferencia de la escritura en libros u otros formatos textuales cerrados, un medio que permite, facilita y promueve la apertura de los textos, la escritura y la producción colectiva de obras culturales. Si no hubiera captado esta condición a tiempo, los resultados de la presente exploración hubieran sido escasos y seguramente no merecerían atención por parte del lector. En otras palabras, si no hubiera intervenido activamente en el campo de las regulaciones en Internet, los resultados de esta exploración nunca hubieran captado las tensiones que definen el campo de luchas políticas sobre nuestra ecología informacional.

El gran desarrollo y movilidad del campo de las regulaciones, junto a las pocas pistas que el nuevo arte regulativo deja filtrar, fue uno de los factores que volvió aún más complejo el trabajo inicial. Estas características forman parte de la especial condición del objeto de estudio de esta investigación. A esta dificultad se sumo la asimétrica relación que mantienen los fenómenos descritos, la exploración de los fenómenos más activos de la red, y los conocimientos disponibles en habla hispana. La producción en idioma español sobre estas tendencias es escaso y la mayor parte de la bibliografía existente está en idioma inglés. Dada la característica del objeto de estudio, las experiencias que merecían análisis han sido prácticamente todas Norteamericanas. Esto se debe a dos razones fundamentales: en primer lugar, Internet ha tenido históricamente su epicentro en Estados Unidos de Norteamérica, por tanto, las mejores y, tal vez las únicas-primeras experiencias interesantes para explorar las tendencias actuales en el campo de las regulaciones, se han desarrollado principalmente en el contexto Norteamericano. En segundo lugar, como podrá observar el lector, me he abocado a analizar un proceso profundo y muy actual, dejando en segundo plano los procesos de institucionalización clásicos y evidentes de Internet. Sin dudas, esto dificultó aún más la búsqueda de material en español, aunque como he referido, preferí explorar el momento en que las regulaciones heterogéneas, complejas y silenciosas, comienzan a emerger sin una forma definida a nivel global.

Paso entonces a uno de los punto que considero de mayor importancia para la presente investigación, o sea, a paso a mostrar el itinerario de la investigación, las estrategias desarrolladas en el abordaje del objeto de estudio y las diferentes opciones metodológicas que definen la perspectiva de análisis. Entiendo que solo “mostrando el código” de la investigación, este trabajo podrá ser tomado, analizado, criticado, mejorado, en suma, podrá servir como un aporte sustancial a la difícil tarea de investigar los procesos político tecnológicos de una forma clara y transparente. Sepa el lector que esta metodología y el desarrollo de las técnicas sistemáticas de investigación en Internet, deben ser optimizadas, mejoradas y pensadas colectivamente. Esta metodología ha servido a los fines de esta investigación, pero salvo algunos principios básicos, desconozco si esta puede ser usada en diferentes contextos, objetivos y objetos de investigación. Los trabajos científicos y sus técnicas de análisis son perfectibles, y la comunidad académica, anclada en la confianza del trabajo honesto, abierto y transparente, viene optimizando sus técnicas desde hace siglos. Por ello, paso a mostrar el “código fuente”, el itinerario y las opciones metodológicas del presente trabajo para que sirvan de garantía para la libertad de fuentes, la optimización y la creatividad de los futuros análisis.

1) Diseño, metodología y unidades de análisis: la metodología utilizada para este análisis exploratorio esta basada en un diseño cualitativo, con el fin de favorecer la emergencia de nuevas tendencias y resultados no previstos inicialmente [4] . La presente investigación posee dos unidades de análisis: la primera unidad de análisis esta conformada por el campo de las regulaciones en Internet, donde analizamos las diferentes técnicas, los reguladores en juego y las tendencias actuales que producen un brusco cambio de paradigma regulativo en Internet. La segunda unidad de análisis está compuesta por el nuevo arte regulativo que desarrolla el laboratorio Creative Commons, donde se muestra como se diseña proactivamente el ciberespacio al mismo tiempo que se lo regula, intentando generar alternativas al cierre de las capas superiores de Internet. En el capítulo 3, siguiendo una metodología de análisis de caso, opto estratégicamente por buscar un ejemplo donde poder encontrar referencias concretas que avalen la hipótesis general de trabajo [5] . Sin embargo, es importante aclarar que ni la metodología utilizada, ni el objeto de esta investigación, están orientados a lograr una generalización -deductiva- de un caso hacia todos los casos posibles dentro del campo de las regulaciones en Internet. Por el contrario, este es un trabajo exploratorio inicial y el caso Creative Commons debe ser interpretado como una unidad de análisis fundamental a los fines de poner a prueba el marco teórico [6] .

2) Niveles de análisis de la investigación: la composición heterogénea del campo de las regulaciones en Internet, el análisis transversal que requiere la emergencia de un nuevo arte regulativo y la elevada complejidad que supone el análisis del caso Creative Commons, implican la intervención directa de muchas más disciplinas de las que puede sanamente abarcar cualquier investigador. Se ven involucradas en el análisis, principalmente, la sociología, el derecho, la arquitectura, la economía política, la filosofía del derecho, la sociología jurídica, los estudios del control social, la ciencia política, algunos criterios específicos y básicos de la ingeniería en sistemas, la informática, la cibernética, el diseño, las ciencias de la comunicación, las artes, los estudios de la ciencia, entre muchas otras. Sin embargo, a los fines de establecer el nivel de análisis, entiendo que el criterio de análisis debe responder básicamente a una disciplina en formación, que se encuentra entre la sociología del control social, la filosofía del derecho, las ramas de las ciencias de la comunicación que están orientadas a la ecología de los medios electrónicos y la informática o ingeniería en sistemas. Esta disciplina, aún confusa, pero claramente en formación, es la que debe abocarse al estudio del campo de las regulaciones, las nuevas formas político regulativas, el control social en sentido amplio y la emergencia de un nuevo arte regulativo en Internet. Sin embargo, rescato en todo momento la libertad de los lectores y usuarios finales de este texto para que cada uno pueda interpretar y completar una visión diferente, alternativa y libre sobre el mismo campo. Considero que muchas otras visiones disciplinarias son necesarias para el buen análisis del complejo campo de las regulaciones en Internet.

3) Dimensión espacio temporal de la investigación: la dimensión temporal del objeto de estudio esta guiada por la historia de Internet, el nacimiento de las redes electrónicas digitales a principios de la década del 60, las diferentes mediaciones técnico regulativas que por la década del 80 comenzaron a tomar gran fuerza a nivel mundial y las problemáticas y desarrollos masivos que por la década del 90 comenzaron a transitar las redes digitales. Si bien el caso Creative Commons no aparece hasta finales del 2002, las bases de las nuevas tendencias regulativas en el ciberespacio tienen un origen profundo que puede ubicarse directamente, como vemos en el capítulo 2, en la historia misma de Internet. La dimensión espacial del objeto de esta investigación encuentra una ubicación distribuida, mediante el espacio de las aplicaciones de Internet, en las redes electrónicas de Internet a nivel mundial. La dimensión espacial de objeto de estudio fue ganando en tamaño, distancia y espacio a lo largo de las ultimas décadas del siglo XX a medida que Internet se expandía y aún se expande a nivel mundial. Las dimensiones de tiempo y espacio en Internet, y por tanto, también las dimensiones de la presente investigación, parecen viajar juntas. Este tipo particular de relación espacio-temporal no puede ser ajeno a la delimitación de las dimensiones del objeto de estudio. Por tanto, en relación a la falsa dicotomía entre espacio-tiempo real y espacio-tiempo virtual, sin dudas, sostenemos la imposibilidad de mantener dichas categorías. No hay consecuencias dentro de Internet que no se vean reflejadas en el espacio, mal llamado, ‘real’. En este punto, apelo a Bruno Latour (2001) para analizar la existencia de pliegues espacio-temporales producidos por las mediaciones técnicas, las traducciones y las delegaciones de funciones sobre las redes de actores-humanos y actantes-no-humanos que componen nuestro entramado socio-técnico. Estas opciones metodológico-epistemológicas no se volvieron explícitas hasta que puede definir las regulaciones como mediaciones técnico políticas. El lector podrá encontrar estas opciones en el primer capítulo del trabajo.

4) Fuentes de Información y unidades informantes: el proceso de búsqueda, pre-evaluación y evaluación de las fuentes de información validas y confiables, y las posteriores selecciones de las unidades informantes fue el proceso más engorroso y de mayor riesgo de toda la investigación. En las exploraciones en Internet, estos pasos configuran un verdadero arte de inmersión en las redes electrónicas. Muchas veces solo me vi acompañado por la intuición en momentos en que solo pequeños detalles decidieron, en primera instancia, el criterio de confiabilidad y validez de una nueva fuente de información. Sin embargo, solo me encontré frente a buenas, validas y completas fuentes de información una vez avanzada la búsqueda exhaustiva en la red. Este logro significo, varias veces, el replanteo de todo el diseño de la investigación, e incluso, la reformulación de las hipótesis centrales del trabajo. Sin duda he encontrado mucha información en la red, aunque, a decir verdad, la mayoría ha sido espuria, confusa, errónea, pura habladuría, replicación de información, buenas intenciones o directamente demagogia. Desafortunadamente, mas que investigaciones serias, resultados estadísticos, indicadores, fuentes confiables de información, lo que he encontrado ha sido solo algunas pistas y pequeños retazos para armar este rompecabezas sobre las tendencia actuales del campo de las regulaciones. En otras palabras, he encontrado pocas fuentes de información válidas y confiables. Inexorablemente, las unidades informantes han seguido la misma suerte que las diversas fuentes de información. Doy lugar entonces a la descripción de las principales fuentes de información y de algunas de las fundamentales unidades informantes que compusieron la exploración:

4.1) Sitios web: los sitios web han sido la fuente de información de mayor riqueza para esta investigación. Con un horizonte profundo a cuarenta centímetros de los ojos me he sumergido durante casi tres años en la exploración exhaustiva del ciberespacio en busca de información útil para componer el objeto de estudio y corresponder las hipótesis del trabajo. He dado prioridad a los sitios web que contenían información sobre regulaciones, reguladores, arquitecturas de Internet, producción de software. Específicamente, he analizado las políticas y publicaciones de los gobiernos nacionales, de las estructuras gubernamentales regionales, y de los organismos internacionales. También he analizado las paginas web corporativas de empresas y cámaras comerciales nacionales y extranjeras productoras de servicios y tecnologías intentando dar con las unidades informantes que pudieran allanar el camino. Asimismo, exploré los sitios web de las organizaciones y corporaciones no gubernamentales sin fines de lucro que están abocadas al gobierno del ciberespacio a nivel global. De hecho, de esta parte de la exploración surgió el análisis del caso Creative Commons. Finalmente, sin ser esta una enumeración taxativa, revisé las páginas web de los institutos de investigación de universidades nacionales y extranjeras y las revistas y publicaciones especializadas en las temáticas regulativas, muchas de las cuales solo se dedican al derecho informático.

4.2) Listas de distribución de correos, foros electrónicos y boletines de noticias: las listas de distribución de correos especializadas (mailing list), los foros electrónicos y la suscripción a boletines de noticias informativos han sido otras de las fundamentales fuentes de información para la presente investigación. Las listas de distribución llegan a constituirse en verdaderos foros de discusión sobre temas específicos. Muchas veces en las listas y foros se recibe información fundamental sin que haya sido solicitada por el investigador. Este ha sido mi caso en reiteradas oportunidades, dado que sin haber solicitado información específica a una lista, voluntariamente sus integrantes envían información pertinente y confiable para la comunidad. Existe una conciencia muy difundida en Internet sobre la importancia de retro-alimentar los flujos de información valiosa en las redes. Aquí mi virtud como investigador estuvo en ubicar la fuente válida de información, quedando luego la nada sencilla tarea de identificar las unidades informantes clave para establecer los criterios y las tendencias en el campo de las regulaciones. En este punto he priorizado la suscripción a listas de activismo digital, a foros que defienden las libertades dentro del ciberespacio y a otras listas y boletines con información directa sobre el objeto de estudio.

4.3) Bases de datos y servidores públicos y privados, mediante aplicaciones par-a-par (P2P) y búsquedas vía FTP (File Transfer Protocol): la búsqueda de información descentralizada tanto en servidores y bases de datos públicas, como privadas, mediante las aplicaciones par a par (P2P), o bien de acceso vía FTP, ha sido -sin dudas- la fuente de información más caótica, pero también la más interesante de toda la investigación. A pesar de su conformación anárquica, estas fuentes de información ubicadas en servidores nacionales o extranjeros no han sido menos importantes para la investigación. La nota saliente al momento de tomar las aplicaciones de arquitecturas P2P como fuente de información esta dada por la reversibilidad en la jerarquización entre clientes y servidores que ellas permiten. Mediante estas aplicaciones los usuarios de Internet pueden compartir parte de la información privada que se encuentra en su computadora. Mediante el acceso a servidores vía FTP pude encontrar materiales insólitos, sorprendentes, valiosos, escasos, y demás rarezas, de donde obtuve información útil, borradores, documentos de trabajo, informes, presentaciones, que no se encuentran en la publicación clásica de una pagina web. Si bien muchas veces la información a la que accedí mediante las aplicaciones P2P, o bien vía FTP, no estuvo firmada, o pudo vincularse indubitablemente con su/s autor/es, metodológicamente estas fuentes de información fueron imprescindibles para el trabajo exploratorio. De hecho, considero que estas búsquedas exploratorias tienen que ser un paso obligado para todos aquellos que tengan como objeto de estudios temáticas relativas a Internet.

4.4) Weblogs: los weblogs, por su estructura y especificidad, han sido fuentes valiosas de información técnica. Los weblogs de comunidades virtuales, o bien aquellos corporativos –a diferencia de aquellos personales o autobiográficos-, generalmente están especializados por temas, son técnicos, de alta movilidad de información y, por lo general, contienen información actualizada. Por su capacidad de publicar instantáneamente los materiales y opiniones de los autores / lectores de una comunidad, los weblogs se han transformado en poco tiempo, como bien afirma Candeira (2001), en una memoria colectiva que contiene las ultimas tendencias sobre temas específicos. En este sentido, he analizado solo los weblogs que parecían pertinentes a la hipótesis del trabajo. Los weblogs me han dado la posibilidad de ir publicando el material avanzado de esta misma investigación y, por ello, recibir devoluciones tanto publicas -en el mismo weblog-, como privadas -vía e-mail-, que han contribuido sustancialmente a enriquecer el análisis final del trabajo. Los weblog (más aún los auto-moderados o aquellos que tienen filtrados colaborativos) dan la posibilidad de referenciar y comentar tanto los contenidos de una nota principal clásica, como los debates-diálogos que los lectores / autores hacen públicos. Muchas veces la mejor información, y la posibilidad de identificar las mejores unidades informantes, la encontré en la parte de los comentarios que los mismos miembros de una comunidad van haciendo. La fusión de la clásica categoría de autores y lectores, sumada a las formas abiertas de participación y moderación, vuelve a los weblogs una fuente inagotable de recursos actualizados y específicos.

4.5) Postgrados a distancia y semipresenciales sobre regulaciones: los postgrados de corta duración basados en una metodología de educación a distancia, con o sin una instancia presencial, han sido una fuente importante de recursos validos y pertinentes para el objeto de estudio. Particularmente, tuve oportunidad de hacer dos postgrados sobre regulaciones durante el transcurso de mi investigación [7] . Los materiales producidos por estos cursos se encuentran en la bibliografía y publicados en diferentes partes de Internet. Estos cursos me brindaron un marco propicio para establecer criterios compartidos con colegas de toda América Latina y del mundo, a través de los foros de discusión para participantes, donde tuve la posibilidad de compartir materiales y discusiones con especialistas de todas partes del mundo. Los buenos cursos a distancia, y aún más los semipresenciales, dan la posibilidad de plantear problemáticas, de realizar comentarios y mantener discusiones con colegas y tutores. Esta labor fue esencial para sacar dudas, o bien discutir algunos puntos salientes de mi trabajo.

4.6) Congresos, seminarios, jornadas e intercambios académicos: el intercambio con investigadores y docentes colegas ha sido vital para el desarrollo de esta investigación. He participado en la organización de congresos, he organizado eventos sobre redes comunitarias [8] y seminarios sobre la temática de las regulaciones en Internet. Tanto como ponente, organizador o simple participante de eventos presenciales o semi-presenciales, tuve oportunidad de intercambiar información, realizar entrevistas y discutir partes de la hipótesis general de trabajo. Estas instancias han sido importantes para la recopilación de datos vitales para el trabajo. Asimismo, en oportunidad del ‘Internet Law Program 2003’, tuve la posibilidad de realizarle una breve entrevista abierta a Lawrence Lessig, quien es actualmente el director de Creative Commons y uno de los más reconocidos especialistas en la temática de las regulaciones a nivel mundial. En oportunidad del ‘Tercer Congreso Mundial de Redes Ciudadanas’ realizado en Montreal, Canadá, tuve oportunidad de presenciar una larga exposición y participar de un interesante intercambio con Richard M. Stallman, Fundador de la Free Software Foundation. En este mismo sentido, tuve oportunidad de contactarme con James Boyle cuando visitó la Argentina en el mes de Octubre de 2003. Boyle es también fundador de Creative Commons, y uno de los mejores especialistas en materia de Propiedad Intelectual de los Estados Unidos. Ha sido también muy importante trabajar, compartir y requerir información, recomendaciones y sugerencias en los ámbitos de trabajo académico [9] .

4.7) Fuentes clásicas de información: por último, por fuentes clásicas de información quiero significar el trabajo pedestre que he realizado en la investigación. En bibliotecas públicas y privadas, he desarrollado un análisis bibliográfico exhaustivo sobre libros y publicaciones impresas de los autores que tratan estas temáticas a nivel global. He conseguido también valiosa información dentro de organismos de gobierno a nivel nacional, como el Ministerio de Economía y el Fondo Nacional de las Artes, ambos de la República Argentina. He tenido acceso a leyes, decretos, jurisprudencia, programas y políticas publicas nacionales, entre infinidad de otros material. También he revisado gran parte de la producción legislativa y las diferentes políticas públicas que se han desarrollado a nivel global sobre la regulación del ciberespacio, aunque me he detenido más en la Unión Europea y en los Estados Unidos de Norteamérica. He obtenido información, en materiales no digitales, de diferentes organismos de Naciones Unidas, como también de empresas de telecomunicaciones y cámaras nacionales involucradas en el tráfico de información en la Argentina.

5) Técnicas e instrumentos utilizados en la investigación: como el lector puede advertir, la mayoría del trabajo de campo se ha basado en búsquedas, entrevistas e intercambios no estructurados vía e-mail, en exploraciones dentro de Internet y en intervenciones concretas dentro de comunidades, foros, listas de distribución y publicaciones y comentarios dentro de weblogs. En las instancias presenciales, entrevistas, cursos, jornadas y encuentros, he usado técnicas de observación y técnicas de entrevistas no estructuradas. Sin embargo, gran parte del desarrollo de técnicas e instrumentos para la investigación han sido nuevas y he tenido que capacitarme y utilizar la imaginación para resolver varios cuellos de botella a lo largo de mi trabajo. Específicamente, he tenido también que: (a) buscar la mejores herramientas que den acceso a los recursos en Internet, como el caso de las aplicaciones P2P o el acceso a servidores vía FTP, traductores o aplicaciones específicas para búsquedas en la web; (b) he tenido que bajar aplicaciones de la red e instalarlas, en la computadora personal que utilice para realizar el trabajo de campo y debí capacitarme en usos y buenas prácticas sobre estos programas; (c) he tenido que identificar los mejores motores de búsqueda, directorios, multi-buscadores y meta-buscadores en la web, configurar alertas, reminders (recordatorios) y aviso de actualizaciones de páginas pertinentes al objeto de estudio y configurar programas y aplicaciones según criterios, operadores lógicos, frases, palabras claves y filtros, para obtener una mayor exactitud en las búsquedas en la web; (d) tuve que identificar las listas de distribución, los foros y boletines de noticias, los servidores y configurar alertas, reminders (recordatorios) y formas de distribución. En este punto, debo aclarar que me he dado de alta en varias listas nacionales, regionales y globales, y he hecho un seguimiento diario (o semanal, según el caso) de sus contenidos, intereses y discusiones, con el fin explorar las tendencias actuales en el campo de las regulaciones. La suscripción a listas y boletines, ha sido una técnica esencial, desde la perspectiva de esta estrategia metodológica; (e) tuve que desarrollar, diseñar, configurar y organizar pequeñas herramientas específicas para la obtención y administración de la información obtenida en la exploración y específicamente, para mantener aquellos registros históricos de la web que paulatinamente iban desapareciendo; he tenido que desarrollar un archivo digital propio a tales efectos.

6) Análisis de la información: para el análisis y aprovechamiento de la información obtenida he utilizado la triangulación y el principio de complementariedad tanto de fuentes de información, como de unidades de información. Solo gracias a la recolección detallada de pequeñas fuentes de información, a los intercambios, las críticas e intervenciones sobre las mismas fuentes y a la selección minuciosa de las unidades informantes, fue posible el armado y la de-codificación racional del complejo rompecabezas sobre las regulaciones silenciosas del ciberespacio. He triangulado las técnicas descritas con diferentes solicitudes de información e intervenciones en el campo a través de los mismos espacios y herramientas electrónicas que describimos en los puntos anteriores. En todo momento he hecho interactuar esta información con casos concretos que puedan ayudar a esclarecer nuestra hipótesis de trabajo. Muchas veces he interpretado un gesto, una sugerencia, una actitud, con el mismo valor que le otorgué a cualquier otra fuente, puesto que la mayoría de estas muestras han significado un claro componente cultural cercano a la ética hacker y por ello, en ningún momento descarté la utilización de pequeñas técnicas ad-hoc para la construcción y exploración de nuestro objeto de estudio. En todo momento, he tratado de captar las lógicas subyacentes más que el nivel de las respuestas explícitas, puesto que el objeto de la investigación intenta dar cuenta de un emergente, muchas veces silencioso, en el campo de las regulaciones del ciberespacio.

 


 

Capítulo 1

 

 

 

El campo de las regulaciones en

Internet y su nuevo arte regulativo

 

 

Las regulaciones en Internet conforman un campo de complejas tensiones políticas sobre la ecología informacional de nuestras sociedades. En el ciberespacio convergen antiguas técnicas regulativas y novedosas formas de configurar el tiempo-espacio. Comienzo el primer capítulo analizando el marco teórico conceptual necesario para comprender las regulaciones y las tendencias actuales en su campo de acción. El presente capítulo esta dividido en cinco ejes principales. El primer eje desarrolla el concepto político de regulación como mediación técnico regulativa. El segundo delimita el campo de las regulaciones y describe las luchas y tensiones dentro de Internet. En el tercero me aboco a la descripción y presentación de las diferentes técnicas regulativas a las que doy el nombre de reguladores. En cuarto lugar (de)codifico los reguladores clásicos y analizo la relación que éstos tienen con la sistematicidad, la seguridad (jurídica) y la previsibilidad necesaria para el trafico mercantil. Finalmente, caracterizo el código como regulador y establezco las bases del nuevo arte regulativo emergente en el ciberespacio.

        

A) La profundidad de las mediaciones técnico regulativas

 

Las infinitas regulaciones con las que convivimos diariamente conforman una parte vital para el funcionamiento de nuestras sociedades. Sin importar el tiempo-espacio de donde provengan, o cuan presentes están en nuestra conciencia, las regulaciones -desde hace siglos- intervienen nuestras mentes, sujetan nuestros cuerpos y median la acción dentro de nuestras sociedades. Las regulaciones poseen la típica diversidad [10] de los dispositivos que concentran las luchas y tensiones políticas a lo largo de la historia. Son formas de ordenar y clasificar el mundo, aunque, a decir verdad, estos procesos regulativos no siempre son concientes y racionales como supone la estructuración socio-política moderna. En este sentido, algunas regulaciones se transmitieron oralmente desde hace miles de años, otras se escribieron sobre piedras, mientras que otras se codificaron a través de sofisticadas tecnologías [11] . Donde existe una regulación existe un mundo que puede descubrirse en las profundidades de sus mediaciones sociales. El sentido común vincula acertadamente las regulaciones con leyes referidas a la circulación de bienes dentro de mercados. Sin embargo, para poder comprender el concepto de regulaciones, al inicio de esta investigación, debo decir que las mismas siempre involucran procesos más complejos que el mero tráfico mercantil. En otras palabras, las regulaciones hacen posible el contexto socio-político que permite la existencia de lo que hoy llamamos mercados.

Es necesario, por tanto, superar el concepto desnudo e ingenuo de regulaciones para poder analizar la profundidad que el concepto implica para el presente trabajo. Retomando algunas ideas de Latour (1991), las regulaciones son una especie de proliferación de híbridos, o sea, composiciones y asociaciones de elementos heterogéneos, pertenecientes tanto a la esfera de lo humano como a la esfera de aquello que llamamos clásicamente lo artificial, lo no-natural, aquello que es construido socialmente y que no corresponde a la esfera de la ‘naturaleza de las cosas’ que supo construir la modernidad [12] . El análisis de las regulaciones, debido a su heterogénea y diversa composición, nos obliga a desplazarnos velozmente por mundos sin correlación aparente. Cuando analizamos las regulaciones, por ejemplo, viajamos de las tecnologías par a par (P2P) [13] del caso RIIA [14] vs. Napster [15] , al panóptico de Jeremy Bentham, atravesando diferentes tipos de codificaciones, desde las jurídico-discursivas hasta las más sofisticadas e irreversibles configuraciones socio-técnicas de nuestro entramado social. Las regulaciones alcanzan la fibra íntima de cualquier sistema e implican, en todo momento, opciones tanto políticas como técnicas. Las mismas Involucran las redes de actores fundamentales de cualquier sistema y tienen la función de anticipar-gobernar las situaciones futuras. En este sentido, las regulaciones son dispositivos técnico políticos que tienen por objeto lograr una estabilidad perdurable en el tiempo a través del control de conductas y espacios.

Las regulaciones forman parte de las instancias políticas de control que conforman un espiral ascendente en busca de la ‘supuesta perfectibilidad’ socio-técnica de nuestras sociedades. Para la hipótesis de este trabajo, las regulaciones son mediaciones técnicas que conforman heterogéneos dispositivos políticos provenientes de diferentes tiempos y espacios. Técnicamente hablando, entiendo las regulaciones como ‘mediaciones técnico regulativas’ (MTR) [16] . El concepto de mediación aparece como el primero a ser definido puesto que me permitirá continuar con la construcción mayor de las MTR. El concepto de mediación, a diferencia de las meras intermediaciones, indica la existencia de un dispositivo mediador que se encuentra enlazando diferentes instancias o momentos, y que por su mera acción cambia la calidad de aquello que compone. La mediación conforma una comunicación, una negociación, una asociación entre diferentes redes de actores-humanos y actantes-no-humanos, que en todo momento implica decisiones, intervenciones, cambios de calidad y de cantidad en la composición de las redes que enlaza. El segundo componente de nuestra construcción, el concepto de ‘lo técnico’, indica la composición de estas mediaciones, o sea, la composición del entramado social o socio-técnico. Lo técnico, más que lo tecnológico, indica la presencia de redes compuestas por una serie de elementos heterogéneos, tanto animados como inanimados, tanto presentes como pasados, que crecen, se necesitan y se producen recíprocamente. Lo técnico implica siempre la presencia de aquello que es político, de aquello que, mediante redes de actores-humanos y de actantes-no-humanos, compone nuestro entramado social.

En otras palabras, el actante-no-humano, siguiendo a Latour (2001), es todo aquello que pueda actuar o influenciar los espacios y las conductas. El actante-no-humano se define por sus actuaciones, o sea, incluye todo lo que pueda actuar -de una u otra forma- sin distinciones esencialistas. Los actantes-no-humanos, al igual que los actores-humanos clásicos, poseen programas, metas y objetivos, pero a diferencia de éstos, los actantes-no-humanos poseen una invisibilidad (epistemológica) que recubre sus redes, sus actuaciones y por tanto, sus mediaciones. Sin embargo, a pesar de su aparente invisibilidad, de la negación de su interacción social, las actuaciones e intervenciones de estos actantes sobre el entorno son concretas y sostenidas en el tiempo. Por tanto, la ‘mediación técnica’, puede definirse como una forma humana antiquísima de acumulación y codificación sociotécnica. La misma es tributaria de la fascinante experticia social desarrollada tras miles de años de relación con nuestro entorno. Este relacionamiento profundo de las mediaciones técnicas ha vuelto indistinguible la composición de las redes que forman nuestro entramado sociotécnico. En este sentido, la mediación técnica es una forma de acción colectiva-asociativa que concentra la flexibilidad para crear y re-crear, para delegar bajo formas estables y para movilizar lo hecho junto a otras redes de actores humanos y actantes-no-humanos en otro tiempo-espacio. [17] Esta definición pretende hacer visibles y reivindicar las redes de actantes-no-humanos, único camino posible para comprender la entidad política que plantean las MTR para nuestras sociedades.

El último componente de mi construcción sobre las MTR esta compuesto por lo regulativo, por el concepto de regulación. El concepto de regulación (del latín regulare) expresa la tendencia hacia aquello que debe ser reglado, medido, ajustado, vuelto a la regla, puesto en orden, transformado, traducido hacia algo nuevo. El concepto ‘regular’ indica una situación que se encuentra entre los extremos, en una posición balanceada, que tiende a un punto medio. Las regulaciones llevan en su interior el impulso hacia la normalización de situaciones supuestamente desajustadas o con alta probabilidad de desequilibrio. La presencia más o menos visible de una regulación lleva siempre implícita la existencia de alguna entidad-constructo (valores, alma, cuerpo, sujeto, colectivo, sociedad, naturaleza) que necesita ser dirigida, controlada, corregida, equilibrada, balanceada, en suma, que necesita ser dominada hasta ser transformada en el producto de la misma intervención [18] . Por tanto, entiendo que las MTR son dispositivos técnicos que buscan enlazar, asociar, intervenir, de forma política, las diferentes redes de actores-humamos y actantes-no-humanos con el objeto de controlar y regular las consecuencias que dicha intervención tendrá sobre el entramado socio-técnico en nuestras sociedades.

Las MTR son dispositivos técnico políticos que componen nuestro entramado social. Los asociaciones, arquitecturas, codificaciones o tecnologías que estas regulaciones favorecen, permiten o prohíben, son desde hace siglos parte fundamental de nuestra capacidad de vivir en inmensos colectivos socio-técnicos. De allí la importancia de las MTR y la profundidad que las mismas implican. Las MTR (o en adelante, simplemente regulaciones) se encuentran, sin ubicación fija, donde se atraen recíprocamente las relaciones cotidianas de poder. Las MTR conforman un campo de luchas que contiene las tensiones políticas sobre el diseño futuro de nuestro entorno socio-técnico y son parte de las luchas constantes entre aquellos que se ven potencialmente favorecidos por una situación concreta y aquellos que se hallan fuera del supuesto circulo virtuoso que propone la situación ideal. Estas tensiones políticas son, como bien afirma Lawrence Lessig (2001), parte de una lucha entre lo viejo que quiere perdurar y lo nuevo que quiere emerger. En este sentido, las regulaciones se ubican en el espacio que une y enfrenta las multiformes relaciones de poder con las asimétricas pero infinitas estrategias de lucha.

Por esta ubicación las MTR están caracterizadas por una propiedad fundante: su polivalencia. Todas las regulaciones son, en principio, polivalentes. La polivalencia de las MTR indica la flexibilidad de un dispositivo técnico multiforme y funcional a distintos posicionamientos tácticos dentro de un campo de luchas. Todas las regulaciones poseen esta ambigüedad constitutiva que las convierte en una oportunidad latente de alteridad. Esta característica fundante subsiste siempre con independencia de la reversibilidad de las situaciones concretas de la práctica cotidiana. En este sentido, a pesar de su polivalencia, las regulaciones pueden tornarse irreversibles y pasar a funcionar, no como estructuras de asociación - cooperación, sino como estructuras de dominación. Este cambio de calidad hacia la (ir)reversibilidad que una regulación puede favorecer, dependerá necesariamente de la cantidad, calidad, extensión, estabilidad y arquitectura que alcance el entramado asociativo que sostiene la práctica de dicha regulación. En este sentido, las regulaciones dependen de las acciones, las decisiones, las valoraciones y los usos finales que llevan adelante las redes de actores-humanos y actantes-no-humanos que las soportan. Por tanto, las regulaciones se nos presentan como la instancia de reversibilidad-irreversibilidad del tiempo-espacio social.

Finalmente, debo decir que las MTR pueden aparecer como un proceso abierto, participativo, claro y transparente. Sin embargo, es importante resaltar que cualquier regulación, si mantiene una cierta efectividad en la intervención, es producto de un largo proceso que la práctica ha transformado en un dispositivo opaco que requiere ser auscultado, penetrado por el análisis científico, por una especie de ingeniería social reversible orientada hacia el pasado del dispositivo. Nuestros entramados sociales poseen partes vitales que, de tan necesarias e imprescindibles, se hallan ocultas, invisibles, silenciadas. Sobre ellas funcionan profundas MTR que las transforman en dispositivos con una fuerte carga de irreversibilidad. Bajo estas circunstancias, las regulaciones emergen como dispositivos opacos, crípticos, que esconden su funcionamiento, por lo que muchas veces estas pueden ser caracterizadas como cajas negras. Cuando las regulaciones funcionan como cajas negras, por un lado, nos vemos alejados de la compleja composición interna de cualquier dispositivo técnico, y por el otro, nos acercamos a la estabilidad durable en el tiempo pretendida por toda MTR. En este sentido, las regulaciones mas eficaces, aquellas invisibles, silenciosas y, por ello también más irreversibles, forman parte del futuro inmediato donde el orden político queda traducido, aunque muchas veces, también subvertido.

Sin embargo, el campo que contiene las MTR esta atravesado una la tensión originaria entre la apertura y la clausura de estas mediaciones técnicas. Esta dividido entre modelos que permiten intervenir con mayor o menor libertad en las MTR y modelos que -a la espera de una ‘supuesta’ estabilidad y seguridad- pretenden cerrar las cajas negras que contienen las MTR. Nos enfrentamos a la posibilidad de constitución de regulaciones compuestas colectivamente, donde muchos pueden aportar y decidir sobre el futuro del entramado sociotécnico, o bien, nos enfrentamos a dispositivos regulativos cerrados donde la intervención de múltiples actores con posibilidad política sobre el campo de las MTR es limitado y altamente controlado. A medida que nuestro entramado sociotécnico crece, más complejas se vuelven nuestras asociaciones y, por ende, más alto es el riesgo frente al cierre de las cajas negras que contienen las MTR de nuestro relacionamiento socio-técnico. Este punto es esencial, tal vez el más importante, para comprender la dinámica actual del campo de las regulaciones en Internet, dado que este espacio está atravesado por tensiones entre diferentes modelos evolutivos que luchan por la libertad y el control, la apertura y la clausura del ciberespacio.

 

B) El campo de las regulaciones en Internet

 

El campo de las regulaciones en Internet (CRI) forma parte de los recuerdos del futuro, tanto por las promesas que lleva implícitas, como por la especial temporalidad que gobierna su espacio. Este campo está compuesto por profundas y polivalentes MTR, tanto pasadas como presentes, que unen las heterogéneas redes de actores-humanos y actantes-no-humanos con la intención de gobernar la consecuencias futuras de nuestras sociedades. El CRI no es un campo al que podamos ubicar y delimitar con exactitud, mejor dicho, es un espacio móvil compuesto de diferentes MTR, tanto presentes como pasadas, que penetran y colonizan otros campos. Específicamente, el CRI aporta a otros campos las mediaciones técnico políticas que permiten el control a distancia y a través del tiempo. El CRI posee una tensión originaria y permanente entre el diseño y los objetivos de las polivalentes MTR y los resultados efectivamente alcanzados luego de cualquier intervención en un campo de luchas. Estos resultados, en cualquier proceso mediado por la técnica, quedan en manos de las redes de usuarios finales, o sea, en manos de diferentes redes que podemos llamar corporaciones, empresas, universidades, estados y usuarios-finales. Por tanto, la interrelación dinámica entre estos dos momentos, está gobernada por los usos-finales de las redes que soportan las MTR.

Como ningún otro, el CRI esconde una oscura tendencia hacia la supuesta perfectibilidad socio-técnica, y por ello, tiene por objeto el control social en sentido amplio. El capital en juego dentro del CRI es, básicamente, el control social referido a la imposición de una visión recta, ordenada y eficiente del mundo. Cuando refiero al control social, estoy indistintamente indicando el control directo de una intervención, así como el control indirecto que puede actuar por mediación, delegación, o por infinidad de usos y resistencias inconscientes. De forma amplia, me refiero al control que permite y construye espacios, pero también al que prohíbe y restringe los mismos. La sola pregunta sobre la necesidad o no de controlar determinada situación es ya una instancia de control en si misma. En otras palabras, me refiero tanto al control social básico, operativo y necesario que construye sociedades abiertas y libres, como al control que construye sociedades cerradas, de clausura, de vigilancia. Debido a la amplitud del control social, las consecuencias políticas de las MTR son ineludibles y este campo puede ser descrito como un campo no-voluntario. Sus intervenciones, objetivos, metas y técnicas, tienen efectos tanto por acción como por omisión y se producen con independencia de las voluntades individuales o colectivas.

Si bien existen diferentes tipos y grados, el control funciona como una espiral ascendente e irreversible. La obsesión por el control [19] y la vigilancia [20] que caracteriza a nuestras sociedades, es también la obsesión por la evitar del riesgo siempre presente dentro de entornos cada vez más complejos. La retroalimentación entre la obsesiva evitación del riesgo y la complejidad creciente del entorno sociotécnico, sin dudas, conduce a un incremento en los dispositivos que favorecen e incrementan el control social dentro del CRI. Esta espiral en aumento dentro del CRI tiene razones técnicas muy claras. Las MTR han estado siempre dirigidas a lograr mayor estabilidad mediante delegaciones de funciones en ensamblajes de actores-humanos y actantes-no-humanos. Desde el momento en que, como actores-humamos utilizamos redes de actantes-no-humanos y delegamos funciones en redes de tecnología, estamos asociándonos para conseguir mayor estabilidad y certeza en el relacionamiento social. Como afirma Latour (2001), una relación social estable implica la introducción de mediaciones técnicas, o sea, el reclutamiento de actantes-no-humanos, para establecer un entramado asociativo estable y perdurable en el tiempo [21] .

Cuando estamos en presencia de mediaciones técnicas es el orden y el control, como clásicos de la política, los que logran emerger a través de los diferentes dispositivos tecnológicos. Esto puede observarse directamente cuando delegamos funciones en redes de actantes-no-humanos dentro del entramado social. Las delegaciones, buscan ganar estabilidad para la función delegada y, paradójicamente, se transforman en los dispositivos que, de forma poco evidente, sostienen la acción de los actores-humanos clásicos. La delegación de funciones en redes de actores-humanos es siempre flexible, costosa y contingente. Por el contrario, la delegación de funciones sobre redes de actantes-no-humanos es menos flexible, posee costos decrecientes y es más estable. Por lo tanto, la delegación de funciones en redes de actantes-no-humanos produce una traducción móvil de metas y objetivos mucho más efectiva que las siempre conflictivas delegaciones de funciones entre actores-humanos. Por ello, el CRI está atraído por la efectividad, eficiencia y perdurabilidad de los diferentes dispositivos técnico regulativos que pueden subvertir la política integrándola en aquello que denominamos genéricamente tecnología. Este tipo de asociación-delegación es una especie de conversión estable de lo inmóvil en móvil. Forma parte de un adiestramiento de los actantes-no-humanos que permite, a su vez, un adiestramiento posterior de los actores-humanos.

La relación entre nuestro entramado social, las MTR y el control es una relación íntima y constitutiva, presente tanto en la cotidianeidad relacional, como en la planificación política a nivel mundial. [22] Si no existiera delegación en actantes-no-humanos el control solo se daría en un nivel inmediato, local, y en un presente más que efímero [23] . En este sentido, el control a distancia depende de la creación de una red de actantes-no-humanos fijos, dóciles, estandarizados, que hace posible la circulación, la traducción de información y la estabilidad de una red [24] . El diseño y desarrollo de tecnologías implica necesariamente una tendencia a extender, restringir o re-configurar el control a distancia sobre nuestras sociedades. Las tecnologías son cada vez más importantes como formas de traducir, ordenar y regular el mundo. Aunque no tengamos constantemente presente esta condición, el control a distancia es una de las razones por las que socialmente se desarrollan tecnologías y se delegan funciones en actantes-no-humanos. Desafortunadamente, durante muchos años la proliferación de híbridos en la conformación de nuestro entono sociotécnico no ha sido considerada una técnica regulativa. Sin embargo, esta situación está cambiando rápidamente con los nuevos emergentes en el CRI, los que muestran claramente como la tecnología es generadora y reguladora de los entornos.

El diseño de entornos aparece como un proceso opaco, muchas veces inconsciente, producto justamente de la invisibilidad de nuestra condición sociotécnica compartida entre actores-humanos y actantes-no-humanos. El diseño de entornos forma parte de la construcción de una especie de biosfera artificial, de un nuevo proceso que puede llamarse, según Gubern (2000), el arte de entornización de nuestra vida cotidiana [25] . El diseño de entorno tiene la pretensión de adecuar el ambiente a un conjunto de reglas y relaciones en prefecta armonía. Este viejo arte constituye una verdadera ingeniería social al mejor estilo positivista, una ingeniería política -típica del siglo XX- donde se crean espacios y se modelan conductas [26] . El diseño de entornos se apoya en el concepto de arquitectura y encuentra en la técnica un proceso de mediación y delegación. A pesar que el CRI es un espacio móvil y difícil de ubicar, el diseño de entornos tiene centros de trabajo claros y bien definidos. El diseño y producción de los entornos, preferentemente aquellos que son digitales, se ubica en laboratorios. Los laboratorios son dispositivos que logran superar fácilmente las coordenadas de tiempo espacio y transformar materiales con potencial para el control local (solo manipulables dentro del laboratorio) en materiales relativamente móviles, bajo control global y durables en el tiempo.

El efecto típico de los laboratorios es la estabilización que conlleva que un enunciado cualquiera escape de las referencias de su construcción-producción [27] . Los laboratorios trabajan bajo condiciones controladas a nivel de escala local para lograr mediaciones y delegaciones que aseguren un control en una escala superior, o sea a distancia y a través del tiempo. Siguiendo a Latour y Woolgar (1995) y a Latour (1983; 2001; 2002), el laboratorio aparece como el lugar que permite olvidar el tiempo, el espacio, las escalas; aparece como el espacio que logra disolver la dicotomía dentro-fuera y, por tanto, destruir las diferencias de escala entre lo micro y lo macro. El laboratorio es un conversor de fuerzas, una instancia de mediación técnica, que debe unir lo que se considera que esta dentro, bajo condiciones controladas, con aquello que supuestamente esta fuera de este entorno. La actividad del laboratorio es la continuación de un campo de luchas agonal en el que se continua la política por otros medios. En este sentido, hablo de los laboratorios como lugar político donde son paridos, tanto lo natural como lo social, pero también lo político y lo cultural. La magia de la oscura conquista, la silenciosa conquista, recorre cada uno de los rincones de los laboratorios.

Los laboratorios son espacios de creación, negociación, asociación y delegación. Cuando un hecho es construido y naturalizado en un laboratorio resulta prácticamente imposible asociar nuevos aliados para derrumbar aquella secuencia estable. La irreversibilidad dependerá entonces del costo elevado que los mismos laboratorios poseen y de la cantidad redes de actores-humanos y de actantes-no-humanos que soportan el entramado asociativo de aquel hecho. Por tanto, para contrarrestar la producción de un laboratorio es necesario construir contra-laboratorios (Latour; 1997). En este punto, la inevitabilidad del control de nuestras sociedades encuentra su virulenta contraparte en un elemento aún más radical, materializado en la imposibilidad de prever los resultados que dicho control tendrá sobre las instancias intervenidas. Afortunadamente, nadie puede prever cabalmente los resultados que una regulación tendrá en un entorno de luchas complejo y en movimiento. Constantemente están apareciendo consecuencias imprevistas, indeseables o directamente el azar. A las polivalentes MTR se suma entonces la tensión originaria y permanente entre los objetivos del diseño original de los dispositivos técnico regulativos y los resultados efectivamente alcanzados luego de cualquier intervención en un campo de luchas. Ambas instancias están, definitivamente, gobernadas por los usos-finales e intereses de las redes que soportan el espacio.

Es aquí donde los laboratorios encuentran su real entidad, la entidad que quiero darles en este trabajo. El laboratorio es el lugar donde se ubica el diseño inicial, pero también la optimización posterior que retroalimenta los mismos laboratorios y que genera contra-laboratorios en el diseño de los entornos digitales. El diseño de entornos es parte entonces de la planificación para el control, pero también de la optimización que produce la retroalimentación informacional sobre los usos-finales en cualquier espacio. El ciberespacio es el lugar por excelencia donde esta dinámica puede observarse. Todos y cada uno de los actores involucrados en la regulación del ciberespacio, antes o después, hacen uso político del diseño de entornos a través de los laboratorios y contra-laboratorios. El diseño de entornos concentra la tensión entre los programas iniciales de una mediación técnica, con sus metas y objetivos, y la resultante de la mediación que actualiza los resultados finales de la prácticas. Por tanto, el diseño de entornos intenta describir la fase inicial del diseño pero, también, describe los procesos de optimización y actualización que estas mediaciones poseen en sus extremos, en sus márgenes. Este proceso es absolutamente dinámico, conflictivo y, a pesar de su costo, reversible.

El laboratorio es un lugar especialmente potente para el ejercicio de la política a través de las MTR. Los laboratorios de diseño de entornos digitales conforman una instancia política alternativa donde tanto las arquitecturas del ciberespacio, como los principios sobre los que se basa, afectan la ecología informacional del ciberespacio [28] . Esta es una tensión, o mejor dicho, una interrelación circular entre los diseños e intenciones iniciales y los usos finales en todo ámbito de regulación. La retroalimentación informacional que se establece entre estas dos instancias es esencial a la hora de observar el CRI. Aquello que fue pensado para cumplir determinadas funciones termina (o comienza) a ser utilizado en nuevos y singulares usos. Los usuarios finales llegan a armar corporaciones, laboratorios e, incluso, a confundirse con las redes en las que interactúan, llegan a constituirlas, a dominarlas, utilizando MTR como tácticas subvertoras. Esta tensión aumenta cuando el espacio sobre el que se interviene es un espacio construido sobre la apertura y la transparencia, o sea, favorecido por una arquitectura originaria que fundamentalmente desactivó el control centralizado [29] y conformó un espacio que aún permite el acceso a las MTR de una forma colaborativa.

Nuestra condición sociotécnica de producción de espacios y conductas a través del diseño de entornos digitales no hizo una excepción en el caso de Internet, puesto que, en otras palabras, Internet es el caso por antonomasia que evidencia esta tendencia. El nuevo entorno digital emergió de laboratorios científicos, militares, comerciales, e incluso de laboratorios montados por usuarios productores del mismo espacio, los que generaron, a su vez, más laboratorios. Internet es, en si mismo, un laboratorio gigante con infinitas MTR, arquitecturas y sofisticadas codificaciones. El diseño original de la red permitió espacios de libertad que actualmente, debido a la tan preciada seguridad jurídica, están en pleno cierre, en plena clausura [30] . Cuando Internet a mediados de la década del 90 se volvió comercial en los países desarrollados, surgieron graves problemas regulativos sin solución inmediata desde las perspectivas regulativas ancladas en las visiones jurídicas clásicas. El derecho como instancia regulativa pública comenzó a verse como una técnica regulativa perteneciente a otro espacio-tiempo [31] . La regulación de espacios y conductas en Internet comenzó a basarse en las mediaciones tecnológicas que construían el espacio mediante soluciones que involucraban a las corporaciones desarrolladoras de tecnologías a nivel global. Esto afectó el sentido comunitario, la apertura, libertad y transparencia, que caracterizó Internet desde sus inicios. Emergieron conflictos entre las soluciones legales y los nuevos desarrollos tecnológicos privados que afectaron directamente la parte comunitaria de Internet.

Debido a su baja regulabilidad jurídico-clásica, Internet fue erróneamente considerado en la primera parte de la década del 90 como un espacio de libertad absoluta. Sin embargo, lejos ya de las ideologías libertarias que –afortunadamente- definieron las Declaraciones de Independencia del Ciberespacio (Barlow; 1996), se hizo evidente que el concepto que se encuentra detrás de muchos de sus desarrollos originales es el concepto de cibernética [32] , y que el concepto de ciberespacio [33] ,  proveniente de una novela de ciencia-ficción, puede transformarse en un espacio de control absoluto, perfecto y ubicuo. Por ello, casi como un destino, el gran peligro que azota al CRI es que los laboratorios y contra-laboratorios comiencen a diseñar entornos de redes altamente regulables mediante un control central, perfecto y asfixiante. A diferencia de lo que ocurría hasta hace una décadas, la proliferación de dispositivos de control puede consolidar arquitecturas irreversibles que privilegien el control y la vigilancia, a la diversidad y libertad. Lejos del libertarismo original, las discusiones actuales diferencian y discuten los tipos de control y los actores involucrados que pueden favorecer o limitar espacios, constreñir o permitir conductas [34] . Desde hace unas décadas el CRI se vio ampliado a una pluralidad de instancias de análisis. Se hizo evidente la emergencia de nuevos reguladores en el gobierno de Internet, lo que anticipó el surgimiento de una nueva forma regulativa vinculada al diseño y codificación de entornos digitales. Este nuevo emergente es el que paso a analizar en el siguiente apartado.

 

C) Los reguladores de espacios y conductas

 

El campo de las regulaciones en Internet contiene las diferentes técnicas políticas de control de espacios y conductas y los modelos que deciden la ecología informacional de nuestras sociedades. Históricamente, a cada tecnología de producción, registro, procesamiento y difusión de información (oralidad, escritura, alfabeto, imprenta, y los medios electrónicos) correspondieron diferentes formas políticas en relación a las mediaciones técnico regulativas [35] . El desarrollo vertiginoso de la red de redes no ha sido una excepción a la regla y también generó profundos cambios dentro del campo de las regulaciones. Muchos de estos cambios, aún silenciosos e invisibles, han contribuido a enfrentar -dicho a groso modo- el derecho con la tecnología. [36] Por tanto, dedicamos este apartado a la caracterización de algunas mediaciones técnico regulativas, las que denominamos reguladores, y que están vinculadas a las formas en que, de manera limitada, podemos pensar nuestra arquitectura político social. Los reguladores son construcciones con las que conceptualmente sintetizamos de forma limitada, pero elocuente y directa, las formas concentradas en que las mediaciones técnico regulativas pueden aparecer según los clásicos criterios políticos sociales [37] .

Los reguladores son dispositivos a través de los cuales las conductas y los espacios son controlados, diseñados, protegidos o restringidos. Según Lawrence Lessig (1998; 1999-A), las conductas y los espacios, tanto dentro del ciberespacio como fuera de él, se regulan al menos por cuatro reguladores: las leyes, las normas sociales, el mercado y la arquitectura o el código para el ciberespacio. Muchas veces Lessig llama a estos reguladores con el nombre de restrictores. Sin embargo, si bien los reguladores funcionan muchas veces como restrictores de espacios y conductas, su función es más amplia, puesto que los reguladores también son constructores de espacios y formadores de conductas tal como lo he establecido en los apartados anteriores. Por tanto, rescato en todo momento, como parte fundamental y constitutiva de mi tesis, la ambigüedad latente que existe en cada uno de los reguladores analizados. Paso entonces a caracterizar cada uno de estos reguladores. Comienzo con las leyes como primer regulador, continuo con las normas sociales, el mercado y finalmente con el código y las arquitecturas en el ciberespacio.

El primer regulador esta compuesto por las leyes. Entiendo las leyes como el conjunto de normas jurídicas producidas a través de procedimientos válidos y sistemáticos, sancionadas por una autoridad política competente y soberana, que se encuentran vigentes en un tiempo y espacio determinados y que resultan obligatorias para la generalidad de los ciudadanos de un estado. La forma regulativa específica de las leyes se basa en la posibilidad, real o potencial, de un castigo-pena-sanción por parte de la autoridad competente que ejerce el monopolio de la violencia físico-simbólica. Por leyes en sentido genérico estoy entendiendo las leyes que van desde la constitución hasta las leyes y actos administrativos de menor rango. Las leyes al igual que los decretos, las normas administrativas o, incluso, las sentencias, funcionan como reguladores mediante un constructo mayor que llamamos derecho. Esto funciona de la misma forma tanto en la tradición del Derecho Continental como en el Common Law, puesto que el derecho como mayor constructo, le da cobertura, concentra las leyes y les ofrece la continuidad necesarias a través del tiempo.

El segundo regulador, muy vinculado al derecho a través de la costumbre, está compuesto por las normas sociales. Por normas sociales entiendo un conjunto de reglas sedimentadas en el tiempo por la práctica cotidiana, más o menos obligatorias, que no tienen un órgano específico que las haga cumplir en caso de desobediencia. Las normas sociales, sin tener la amenaza de las sanciones formales del criterio jurídico moderno, poseen siempre una tendencia a ser respetadas por ser costumbres que las mismas normas arrastran. Esto no indica que a las normas sociales les falte el castigo, sino que su forma regulativa específica es la siempre presente tensión entre inclusión–exclusión a grupos sociales de pertenencia. En otras palabras, las normas sociales amenazan mediante la aprobación o desaprobación por parte de un determinado grupo de personas. Las mismas, restringen por medio del etiquetamiento, la estigmatización, en suma, a través de lógicas de diferenciación social. Las normas sociales, a través de la costumbre, son la principal fuente (tal vez, oculta en gran parte) de la codificación jurídica [38] .

En tercer lugar aparece un regulador denominado genéricamente mercado, donde ubico la dinámica temporo-espacial dedicada a la producción, intercambio y comercio entre productores, trabajadores, proveedores, comerciantes y consumidores. El mercado puede ser un lugar público determinado, o bien, un espacio global imaginario dedicado al comercio e intercambio de divisas, bienes, servicios, experiencias e información. La forma regulativa básica del mercado esta dada por el precio como variable económica que permite un aumento o disminución del intercambio y acceso a determinados bienes, servicios y experiencias, según las reglas de la oferta y la demanda mercantil. Los mercados siempre están altamente regulados, de forma directa o indirecta, tanto por normas jurídicas como por normas sociales. En el presente trabajo me aboco a describir este importante regulador solo en la parte referida a las condiciones donde el mercado impone restricciones a la circulación de bienes intangibles a nivel global. El análisis del mercado es esencial para el campo de las regulaciones de Internet, aunque más que el análisis de mercados concretos, me interesa establecer las relaciones y constreñimientos que este regulador mantiene con los otros reguladores a través de condiciones concretas para el tráfico mercantil [39] .

El cuarto regulador aparece materializado a través de los conceptos de arquitectura (para el mundo urbano) y de código (para el ciberespacio). Si bien Lessig en sus obras iniciales reservó el concepto de arquitectura para los espacio fuera de Internet (constreñimientos y gravámenes de la vida urbana sobre espacios y conductas), en sus obras recientes habla de arquitecturas de Internet como instancias políticas dentro del ciberespacio. Como tal, el concepto logra confundirse mucho con el concepto de código. Para caracterizar este regulador debo hacer una aclaración al respecto. La arquitectura es el modo en que una estructura esta diseñada, construida y, como tal, afecta las formas de uso sobre el espacio. Los programadores y diseñadores de software llaman arquitectura a la instancia de planificación estratégica superior de un sistema. Los diseñadores de páginas web, o de bases de datos, también utilizan el concepto para referir a la estructuración de la información. Sin embargo, la arquitectura puede referir también, y este es el caso, a la planificación y diseño de una red de computadoras. El concepto de arquitectura define los principios que gobiernan las redes, los diferentes enlaces, formas organizativas, procedimientos, protocolos y hasta formatos de información dentro de una red. Por tanto, el concepto de arquitectura de Internet debe ser interpretado en sentido amplio [40] .

Dentro del campo de las regulaciones del ciberespacio, técnicamente hablando, el regulador específico se denomina código (code, en inglés). El código es el emergente más importante dentro del campo de las regulaciones de Internet. A pesar de lo que parece a simple vista, el código es un concepto más críptico, cerrado, y concentrado que el de arquitectura. El código es parte de las tecnologías que hacen funcionar las computadoras y está compuesto por lenguajes complejos. Para quienes no están especializados en estas tecnologías y lenguajes, el código produce efectos sin necesidad que entender sus procesos constitutivos. Específicamente, el código es un tipo de lenguaje alto, producido por actores-humanos, a través del cual se generan las instrucciones legibles en códigos procesables para las computadoras o actantes-no-humanos. El código regula aquello que Lessig (1999-A) llama el espacio de las aplicaciones de Internet, un espacio que une los extremos finales de una red. El código es aquel regulador que controla la actividad o proceso que se da en los extremos periféricos de Internet y que está caracterizado por el uso de protocolos abiertos y transparentes. Sin embargo, Lessig también refiere al código genéricamente como el modo de crear y configurar el ciberespacio de una determinada forma y por ello,  también he tomado esta definición ampliada al referirme al diseño de entornos digitales en el ciberespacio. De allí la importancia del código.

 

D) La (de)codificación de los reguladores clásicos

 

Cada uno de los reguladores analizados posee, a su vez, una particular forma de codificación que paso a describir en los dos apartados finales. Los reguladores pueden dividirse por un lado, en reguladores clásicos (las leyes, las normas sociales y el mercado), a los que dedico el presente apartado, y por el otro, el código como nuevo emergente de codificación del ciberespacio, al que dedico el siguiente apartado. La producción de los reguladores clásicos y la resultante de las nuevas codificaciones comienzan a articularse en la regulación del ciberespacio y conforman un nuevo emergente con características específicas. Para comprender esta negociación es necesario entender previamente la forma típica de codificación que han desarrollado los reguladores clásicos. Ordeno los reguladores clásicos según la mayor o menor visibilidad en la práctica cotidiana, o sea, comienzo con la ley dado que es el regulador de mayor visibilidad. Analizo la codificación legal desde las especiales condiciones que el tráfico mercantil requirió a su funcionamiento, para luego, con menor visibilidad, analizar las normas sociales que, muchas veces ocultas tras mecanismos de la vida cotidiana y olvidadas en su rol de reguladores en el campo de las regulaciones, poseen una profundidad silenciosa que se distribuye mediante la riqueza de sus mediaciones técnicas por todo el entramado sociotécnico.

Las leyes surgen actualmente por medio de formas transparentes y racionales regidas por la misma ley. Es decir, surgen a través de las formas legítimas y válidas del procedimiento constitucional. Las leyes luego de la modernidad pueden caracterizarse por ser procedimientos sistemáticos que trabajan sobre otros procedimientos. Sin embargo, esto no significa que en otros momentos históricos no hayan existido rigurosas formas que establecían lo que debía observarse con celo sagrado. La pretenciosa y resentida relación que la modernidad tuvo con el pasado [41] , quebró el axioma de la naturalidad política antigua y creó un nuevo escenario político para la creación, codificación y aplicación del derecho a través de las instituciones de los estados nación [42] . El derecho moderno fue una máquina de precisión que tuvo el objetivo de sistematizar y codificar las bases económico-políticas con el fin de obtener previsibilidad en el relacionamiento social. Si la historia de la modernidad es la historia de una máquina de repetición-seriación, la historia del derecho moderno es el mapa en donde se diseñaron y proyectaron las piezas de esa máquina [43] . La arquitectura del derecho moderno separó, mediante un abismo lógico, el mundo del deber ser legal y el mundo real que contenía los dispositivos prácticos que gobernaban el tiempo-espacio.

El derecho moderno se caracterizó por la presencia de fuertes contenidos mitológicos, compuestos de cadenas de ficciones, que intentaban llenar los huecos y lagunas que tenía la nueva cosmovisión política moderna. A pesar de sus deficiencias, el derecho aún tiene importantes razones para ser considerado uno de los principales reguladores en su campo. Posee un poder de ‘nominación’ que le permite crear instituciones, obligaciones, generar cargas, clasificar, preparar las condiciones para sancionar. Este poder de dar nombres, según Bourdieu (1993; 91), proviene de la fuerza de las formas, de lo que es consagrado. El derecho como regulador detenta, para Bourdieu (2000; 201), el monopolio de la violencia simbólica legítima [44] . En este sentido, cuando un grupo, asociación o sociedad percibe que una conducta es riesgosa, intenta sistematizar sus experiencias prácticas mediante codificaciones jurídicas. Esta necesidad de imponer formas, de sistematizar y luego codificar conductas, depende siempre del riesgo-peligrosidad en que se encuentren los bienes (jurídicos) a proteger. Por tanto, una sociedad más compleja es necesariamente una sociedad más codificada [45] .

La obsesiva pretensión de regular todas las situaciones, todos los casos, todos los posibles ámbitos de la vida, no es natural ni ingenua. Sin analizar la matriz religiosa, en concordancia con Weber (1999), puedo afirmar que el impulso hacia la mayor sistematización del derecho derivó de la importancia progresiva del tráfico comercial y de la consecuente necesidad de diagramar un orden político-económico previsible dentro de la actividad mercantil. El moderno capitalismo industrial necesitó de un derecho previsible y de una administración guiada por reglas formales, coherentes, casi matemáticas, que favorecieran el cálculo y la estimación del lucro. La sistematización jurídica significó el relacionamiento de preceptos -obtenidos mediante el análisis legal- para formar un conjunto de reglas claro, coherente, y sobre todo, desprovisto de lagunas. La sistemática moderna del derecho parte de la interpretación del sentido lógico de los preceptos jurídicos y de la conducta jurídicamente relevante, y se enfrenta a lo irregular, intuitivo y práctico de las relaciones que constituyen el caso concreto. Sin embargo, la sistematización, para Weber (1999), representa un fruto tardío ya que el derecho primitivo la desconocía por falta de las sublimaciones lógicas.

El aumento en la sistematicidad interna del pensamiento jurídico consistió, según Weber (1999), en un proceso de generalización y reducción. En primer lugar, una generalización de las razones determinantes y de las situaciones de hecho a regular. En segundo lugar, una sublimación lógica, o dicho en otras palabras, la reducción de estos casos a reglas lógicas. Este fue el proceso de sedimentación y síntesis por el que las reglas o preceptos jurídicos alcanzaron un alto grado de abstracción lógica a base de analogías interpretativas. Esta sistematicidad requerida por la seguridad jurídica del tráfico mercantil sublimó la materialidad de la práctica regulativa, construyó inmensas catedrales jurídicas, pero relegó al derecho a garantizar lo que ya estaba regulado bajo otros dispositivos prácticos ocultos y silenciosos. Llevó al derecho a un vacío auto-referencial [46] que requirió en todo momento de las infinitas redes que le daban materialidad, aplicabilidad e interpretación práctica [47] . Por ello, el derecho siempre necesita brazos que materialicen sus enunciados, requiere policías, fiscales, tribunales, cárceles. El mismo se encuentra atravesado por largas cadenas de mediaciones interpretativas que a su vez lo aplican, sintetizan y re-codifican. La tarea que lleva de la regularidad estadística a la regla jurídica es un proceso de sedimentación lenta y de resultados inciertos dada la cantidad interminable de delegaciones en redes de actores-humanos.

A pesar de la fuerza de las mitológicas ficciones modernas, el derecho no llega jamás por si mismo a transformar el mundo. Ni el poder de nominación, ni la sistematicidad moderna, le dan a la técnica regulativa jurídica la capacidad de gobernar el mundo. El derecho solo puede influir la realidad a través de un largo proceso de repetición acrítica, internalización y amnesia de los orígenes. Su principal defecto es su reactividad, puesto que el derecho funciona a través de una lógica ex post facto. Por su especial temporalidad llega tarde al abordaje de la ‘realidad’ [48] . El derecho, a priori, no puede saber nunca cuales son los usos legítimos actuales que se están produciendo en un determinado espacio y, por tanto, funciona como garantización de situación hipotéticas. Una vez que es necesaria su intervención activa sus infinitas redes y tecnologías. Sin embargo, mientras el derecho se mantiene solo como amenaza, real o potencial, su resultado es necesariamente contingente. En este sentido, el derecho es el mejor ejemplo de ambigüedad y polivalencia que marcamos al analizar las mediaciones técnico regulativas. Por su especial funcionamiento, la previsibilidad del derecho se juega siempre a largo plazo y requiere de redes, tecnologías y dispositivos ocultos que garanticen su efectividad.

Para intervenir sobre la intención de los actores-humanos el derecho requiere de otras tecnologías silenciosas que trabajan por fuera de la legalidad. Estas conforman un conjunto de tecnologías e instituciones de secuestro, normalización y docilización [49] . El derecho moderno se rodeó de silenciosas y lacerantes tecnologías de control que disciplinaron y sometieron los cuerpos a instituciones y formas de producción que subyacen a la arquitectura programático normativa. Para brindar efectividad a su arquitectura el derecho siempre ha tenido una existencia tanto ideal como material. Por ello, el derecho existe siempre como idea, como concepto, como positividad latente, pero juega su realidad en la práctica, en la ejecución de su potencialidad reguladora, en las intervenciones ocultas y encriptadas. El derecho se articula con las prácticas, según Bourdieu (2000), como herramienta dócil, como instrumento flexible, polimorfo y adaptable que racionaliza ex post sobre la realidad que a su vez construye [50] . El derecho funciona como una red circular e interminable de formas, procedimientos, materias, actores-humanos, actantes-no-humanos, corporaciones, arquitecturas y codificaciones. Esta es su principal virtud, puesto que sus redes llegan hasta lo más profundo del entramado social. Sin embargo, esta es justamente su especial debilidad como técnica regulativa. Sus redes están altamente compuestas por delegaciones en actores-humanos los que necesariamente vuelven discrecional y contingente su práctica.

Por ello, lejos de la visibilidad y discontinuidad del derecho, vemos que su legitimidad, tanto como su eficacia, se juegan siempre más allá de lo evidente, más allá de lo formalmente enunciado. La legitimidad proviene de la oscura y continua fuerza de la tradición. Proviene de lo que era antes, de aquello que simplemente es ahora, de la profundidad de los orígenes [51] . La legitimidad es tributaria de la indefinición, de lo alternativo, de aquello que no esta dicho. Es el efecto del olvido, y sobre este, la repetición acrítica de una conducta, lo que siempre logra el cometido de naturalizar. En este sentido, los fundamentos de las leyes son, inexorablemente, falibles, débiles y producto de los prodigios de la imaginación, de las maquinaciones y del ocultamiento [52] . Siguiendo a Bourdieu (2000), podemos decir que las razones que impulsan a actuar a los actores-humanos (agentes, según Bourdieu) se guían por una especie de ‘sentido del juego’, por motivaciones más o menos racionales, escritas en el cuerpo como razones prácticas, como disposiciones a la acción. El individuo se halla entregado, en la vida cotidiana, a la aprobación espontánea de su ambiente, la cual no es garantizada por ninguna autoridad jurídica [53] . Las mismas tendencias incorporadas, interiores, existen sin obediencia conciente a las reglas explicitas y, sin tener en cuenta el grado de juridicidad de las mismas reglas (Bourdieu, 1993; 83). La codificación de las normas sociales es mucho más oculta, profunda y eficaz, que la visible codificación jurídica. Por ello, las normas sociales son piezas fundamentales en las estrategias que componen el diseño de las mediaciones técnico regulativas del ciberespacio.

Ya sea con formas o procedimientos rigurosos, o sin ellos, la fuerza material del diario acontecer supera largamente el poder sistematizador de cualquier codificación jurídica. En la profundidad del derecho encontramos que la ley es la misma costumbre. Entiéndase bien, la costumbre que trabaja sobre la repetición acrítica de normas jurídicas, también puede verse como la tradición de lo que es. Lo que está en juego aquí, no es la clásica diferencia entre costumbre y norma jurídica, sino, por el contrario, la relación entre lo que ya está instituido como legítimo (costumbres, rutinas, normas, o arquitecturas) y la incontenible tendencia a decir si, a obedecer espontáneamente un orden. Esto es justamente lo que vuelve fuerte a las normas sociales y por arrastre lo que también favorece al derecho si es que logra captar su profunda dinámica [54] . El regulador normas sociales esta siempre oculto, es invisible, no se manifiesta más que por sus resultados finales y por ello, las normas sociales pueden definirse como codificaciones criptográficas. Bajo la dinámica de este regulador se ubica la lenta e irreflexiva optimización de las invariantes históricas que signan a la tradición con una violencia simbólica específica fundada en la dualidad pertenecer-no pertenecer, tan típica de las normas sociales.

Las normas sociales, como dispositivo regulativo, han sido generalmente olvidadas en el campo de las regulaciones debido a su forma silenciosa, profunda y ambigua. Es justamente sobre este dispositivo -incluso más que sobre el derecho discontinuo de la arquitectura jurídico política moderna- sobre el que debemos hacer hincapié al momento de auscultar las tendencias actuales en el campo de las regulaciones. Sin embargo, tenemos ahora la necesidad de ir más allá de las sistemáticas codificaciones jurídicas, más allá incluso de las ocultas codificaciones de las normas sociales. El proceso que lleva de la codificación oculta de las normas sociales espontáneas a las más complejas sistematizaciones formales de la codificación jurídica moderna muestra que siempre estamos dependiendo de redes heterogéneas y procesos técnicos silenciosos que soportan nuestras acciones. Allí es donde el código, como nuevo regulador en el ciberespacio, contiene las luchas y sedimentaciones dentro del campo de las regulaciones en Internet. Es momento de auscultar el nuevo ídolo, es momento de analizar la forma en que las delegaciones en actantes-no-humanos logran codificarse y formar parte de aquello que llamamos genéricamente tecnología.

 

E) El código como regulador del ciberespacio

 

La codificación de nuestra experiencia social esta cambiando rápidamente a través del diseño y construcción de los entornos en Internet y mediante la utilización de los nuevos lenguajes digitales. El análisis del código nos permite observar como las nuevas formas de nuestra condición sociotécnica están siendo concentradas para normar y ordenar el campo de las regulaciones. El código, al igual que cualquier otra mediación técnico regulativa, sintetizada a través de un regulador, remite siempre al núcleo central de nuestra condición sociotécnica. Nos encontramos frente a una profunda y antigua tendencia, renovada por las nuevas formas de codificación de nuestra experiencia. La codificación que produce cualquier regulador es un proceso de acumulación, sedimentación y traducción sociotécnica de largo plazo, que tiende a controlar, ordenar, normalizar y comunicar sistemas. Las codificaciones operan a través de divisiones, estandarizaciones y clasificaciones de la práctica y procuran siempre terminar con lo impreciso, con lo ambiguo, procuran reducir la complejidad y la incertidumbre social.

Las nuevas codificaciones comienzan, paulatinamente, a articularse y asociarse con las formas clásicas de regulación. Como hemos visto, las nuevas formas regulativas poseen una dinámica bastante alejada de las modernas codificaciones jurídicas. El diseño arquitectónico de Internet y la emergencia de códigos digitales comienzan a gobernar las mediaciones técnico regulativas del campo de las regulaciones. El regulador que llamamos código se presenta, según Lessig (2001), como el entorno construido de la vida social. El código del espacio de las aplicaciones es el regulador por excelencia en el campo de las regulaciones en Internet. A decir verdad, este código aparece como uno de los mayores misterios dado que todavía no se vislumbran los límites de su potencialidad regulativa. El código ordena el tiempo-espacio de Internet, guía la asociatividad, y controla las delegaciones en el entramado sociotécnico. El código es aquel regulador que controla la actividad o proceso que se da en los extremos periféricos de Internet: o sea, el espacio de las aplicaciones de Internet, aquel lugar donde se encuentra la interfaz que relaciona simbióticamente los actores-humanos y los actantes-no-humanos. A diferencia de los reguladores clásicos, el código que producen los laboratorios de diseños de entornos, construye proactivamente el espacio al mismo tiempo que lo regula.

El regulador código, a diferencia de las leyes y el mercado, constriñe a través de mediaciones técnico regulativas proactivas producidas en laboratorios de diseño de entorno digitales. Su forma regulativa específica es el bloqueo-exclusión, por lo que el código regula el espacio y las conductas permitiendo o denegando el accesos. Su forma regulativa se caracteriza por la capacidad de permitir o prohibir el acceso a determinados espacios o bienes. El regulador código delega funciones, no en las formas discursivas jurídicas contingentes, sino en aplicaciones y actantes-no-humanos que le brindan una estabilidad perdurable en el tiempo junto a costos decrecientes. El código regula las relaciones con el medio, los accesos, las permisiones y las prohibiciones, decide quienes, como, cuando, y bajo que condiciones se conectan a una red. Funciona mediante la posibilidad de identificar y discriminar quienes hacen, que hacen y como lo hacen, dentro de Internet. En este sentido, el desarrollo de códigos produce nuevos dispositivos de control mediante formas específicas de identificación, filtrado, zonificación, selección informacional, bloqueos y exclusiones, que se vuelven evidentes cuando nos enfrentamos al problema del acceso. En suma, esta mediación técnico regulativa que llamamos código, controla las condiciones de vida y la ecología informacional de la red de una forma proactiva. Sin embargo, es importante resaltar claramente que la proactividad del regulador código, no hace desaparecer ni la polivalencia, ni la dependencia que cualquier regulador tiene en relación a los usos finales de las redes que soportan el entramado regulativo.

El código, como un tipo fuerte de restricción a la conducta, según Lessig (1999-A), debe ser entendida como la naturaleza misma, por lo que no puede ser considerada una instancia opcional dentro del ciberespacio, al igual que no es opcional la arquitectura en la vida urbana de nuestros días (Lessig, 1999-A). De allí la importancia de la analogía entre la arquitectura del mundo real y la codificación del ciberespacio. Dado que el código construye y estructura la arquitectura del ciberespacio, podemos afirmar que el mismo tiene una mayor inevitabilidad que los reguladores clásicos. Debido a su relevancia para el ciberespacio, William Mitchell (1995) entiende que el código aparece como la ley moderna. Para la actual regulación de la red el código aparece como la ley misma (Mitchell, 1995; Lessig; 1998). Muchos expertos en los lenguajes digitales observaron tempranamente que el código era la ley dentro del ciberespacio, puesto que podía restringir, condicionar, seleccionar, permitir o denegar los accesos. Sin dudas, el control de ese código es poder específico y, por ello, su esencial importancia para las luchas políticas dentro del campo de las regulaciones (Mitchell; 1995). Para Lessig, debemos entender el código como reino de leyes, porque el código puede restringir o habilitar libertades, como antes solo lo hacía la ley (Lessig, 2000 A; 9). Por lo tanto, el código y la arquitectura de los sistemas, comienzan mostrarse como claros competidores del derecho dentro de las regulaciones del ciberespacio.

Este proceso fue evidente en la década del 90 cuando, en medio de una gran expansión de Internet, se entendió que la red era un espacio difícil para la regulación jurídica, aunque no lo era para regulaciones que hacían uso de otros dispositivos y censores que remitían a la continuidad de las tecnologías silenciosas de control disciplinar. En este sentido, James Boyle (1997) ha dicho tempranamente que Internet es el espacio de mayor regulación en toda la historia de la humanidad a pesar de haber sido caracterizado erróneamente como un espacio naturalmente no regulable. El error en estas apresuradas declaraciones estuvo en la imposibilidad de observar los cambios profundos que se estaban dando en la arquitectura política de las mediaciones técnico regulativas. En este sentido, el código -a diferencia del derecho- no codifica reactivamente el ciberespacio, sino que lo hace proactivamente bajo el signo de la oscura conquista de los laboratorios de diseño de entornos. Sin embargo, a pesar de ver debilitada su antigua fuerza reguladora, el derecho no desaparece del campo de las regulaciones sino que por el contrario acompaña y se articula con las nuevas modalidades en la restricción de las conductas y los espacios.

Las regulaciones apegadas a la codificación del ciberespacio a través del diseño de entorno se muestran más flexibles y oportunas para regular la red que la rudimentaria sanción de leyes. A pesar que fácilmente se pueden establecer analogías entre el código y el derecho, es importante aclarar que el código no es una ley, ni funciona como instancia pública clásica. En este sentido el código es tanto público como privado, es patrimonio de la condición sociotécnica común y, como tal, posee una profundidad que no puede reconocerse a simple vista. Los códigos históricamente se elaboraron bajo la multiplicidad de formas y estuvieron abiertos a la diversidad asociativa con diferentes mediaciones técnicas. El caso paradigmático en la historia de las codificaciones es el desarrollo de Internet de una forma abierta y transparente. En otras palabras, mostrando un código específico para construir espacios comunes. En los casos de producción abierta y transparente de software y protocolos de Internet, el código está ubicado como referente para que podamos controlarlo, compartirlo y optimizarlo comunitariamente. En momento en que algunas capas de Internet se encuentran en una etapa de cierre, la producción de códigos representa una enorme promesa al mismo tiempo que la mayor amenaza en el campo de las regulaciones.

Desde hace dos décadas empresas, corporaciones comerciales y estados nación, están presionando para cerrar la producción abierta y transparente de código en el ciberespacio. Se basan en criterios obsoletos de protección de algunas condiciones del trafico mercantil que en nada benefician la innovación y el desarrollo económico [55] . Afortunadamente, todavía el código no es diseñado exclusivamente por las corporaciones que persiguen solo fines comerciales. La producción de códigos dentro del campo de las regulación de Internet esta caracterizada por una insuficiente, aunque muchas veces relajante, intervención de los estados-nación, un fuerte desarrollo de código cerrado por parte de las diferentes corporaciones comerciales, y por la intervención militante de los laboratorios de las universidades, las comunidades virtuales y por usuarios productores finales que pueden contribuir a producir código y retroalimentar el fenómeno Internet. Estos actores producen códigos, y por tanto, participan en las diferentes instancias de gobierno de la red que está re-inventando y re-diseñando el espacio común.

Sin embargo, desafortunadamente, no todos los actores que elaboran estrategias para la regulación de la red tienen en cuenta la complejidad del campo de las regulaciones y la diversidad de reguladores que están en juego. No todos saben manejar este nuevo arte, en momentos en que la regulación de la red debe necesariamente articular la complejidad de los diferentes reguladores involucrados. Puntualmente, veo emerger en el campo de las regulaciones en Internet un nuevo arte regulativo que articula estratégicamente las diferentes mediaciones técnico regulativas para intervenir en el campo de luchas políticas. Este nuevo arte regulativo emergente no desprecia ninguno de los reguladores en juego, sino que utiliza todos los reguladores con el objetivo de lograr intervenciones eficientes, abiertas, progresivas. Por tanto, a diferencia de aquello que generalmente se piensa, el peligro de la regulación de la red a nivel global no pasa exclusivamente por las diferentes brechas digitales en aumento. Para nuestro trabajo uno de los mayores peligros esta dado por la configuración a nivel global donde solo quienes estén en condiciones de generar codificaciones complejas para la red, y logren articular los reguladores disponibles mediante este nuevo arte, podrán acceder a los niveles superiores de este nuevo tipo de gobierno de los espacios comunes. Para el resto, para quienes no manejen el nuevo arte regulativo, la regulación se transformará en una instancia prohibitiva.

El peligro inminente se encuentra en la reducida cantidad de regiones, y dentro de las regiones, las redes de actores-humanos que realmente están capacitados para lograr delegaciones sobre actantes-no-humanos que puedan generar códigos y estrategias que diseñen el ciberespacio de forma abierta y transparente. Para intervenir en este campo de luchas, es necesario crear laboratorios de diseño de entornos digitales que se aboquen a este nuevo arte regulativo emergente que combina los diferentes reguladores y diseña proactivamente el entorno digital. De hecho, una de las notas salientes en el campo de las regulaciones a nivel global es la aparición de corporaciones sin fines de lucro que, soportadas por comunidades de usuarios productores, están interesadas en preservar el libre intercambio de información, la diversidad cultural, continuar con la producción libre y abierta del software y conservar la apertura y transparencia de la arquitectura originaria de Internet, como forma de preservar las libertades básicas de las sociedades democráticas. Por ello, en el siguiente capítulo, paso a analizar los orígenes, los desarrollos, los productores y, específicamente la arquitectura de Internet como principal instancia política dentro del campo de las regulaciones.

 

 

 

 

Capítulo 2

 

 

 

La política silenciosa de las arquitecturas

 

 

Internet es una forma organizativa auto-evolutiva de carácter superior que permite, por primera vez en la historia, la intercomunicación descentralizada entre muchas personas o puntos en una red. Esta característica de Internet, tal vez la característica que mejor la defina, esta sustentada y garantizada por un tipo de arquitectura que permite la convergencia de redes de todo tipo. El presente capítulo analiza la instancia política por excelencia de Internet, o sea, su arquitectura de red. Comienzo describiendo las arquitecturas como instancias políticas, luego analizo los productores del espacio Internet, para poder abocarme luego a la arquitectura originaria de la red, a su transparencia y apertura, sin dejar de lado los principios y estandarizaciones que la guiaron. Analizo el packet switching, el protocolo TCP/IP y el principio de diseño filosófico-político E2E. Finalmente, establezco los rasgos salientes de las actuales discusiones en el campo de las regulaciones haciendo hincapié en la tensión que se abre entre las tecnologías de control y las tecnologías de libertad que están produciéndose en las diferentes capas analíticas del espacio Internet.

 

A) Las arquitecturas como instancias políticas

        

Hemos visto en el capítulo primero que Internet posee una extraña pero fascinante forma de gobierno que, basada en el diseño proactivo de los entornos digitales, conforma un nuevo arte regulativo producido en laboratorios y contra-laboratorios. La noción de gobierno debemos entenderla en sentido amplio, o sea, como un emergente político complejo, compuesto de luchas, fuerzas y tensiones, donde las mediaciones técnico regulativas, tanto proactivas como reactivas, quieren controlar la arquitectura, los usos durables y el desarrollo futuro de una red estructurada bajo estándares comunes y abiertos. El concepto de gobierno evidencia, al igual que en todo proceso tecnológico, una tensión entre los diseñadores y los usuarios finales de las redes. Estas instancias logran fundirse, sin que podamos diferenciarlas claramente, dentro de la arquitectura que conforma el entorno Internet. A diferencia de la concepción esencialista que acompañó durante siglos la nominación y la configuración de los entornos (naturales) de la modernidad, el advenimiento del ciberespacio hizo evidente una concepción del diseño de entornos directamente relacionada con la arquitectura como aparente forma sólida e irreversible. El nuevo arte regulativo de diseño y estructuración de entornos digitales transforma, a través de las mediaciones técnico regulativas, la arquitectura de Internet en la instancia política por excelencia para controlar usos, accesos y espacios en el ciberespacio.

Este trabajo, como ha podido advertir el lector, está atraído por las arquitecturas silenciosas que de manera efectiva configuran políticamente Internet a través de codificaciones poco evidentes. Las arquitecturas han estado históricamente vinculadas a la política en sus diversas formas, pero solo a partir del nuevo ecosistema de relaciones que produjo el Internet -afirman Kapor, Barlow y Lessig- la arquitectura pasó a ser conceptualmente la política de la red. Esta afirmación está lejos de ser solo una metáfora. Si bien lo arquitectónico siempre se nos presenta como aquello que subyace, que se vuelve imperceptible, natural y constitutivo de un espacio-tiempo, las arquitecturas son instancias políticas que configuran el espacio y regulan las conductas. Las mismas están caracterizadas por su inevitabilidad, irreversibilidad y su firmeza al momento de configurar el tiempo espacio. Por arquitectura entiendo la estructura más o menos estable de nuestro entramado sociotécnico que define el estado de las mediaciones técnico regulativas en un espacio tiempo determinados. En este sentido, las arquitecturas deben ser tratadas como la ecología relacional de nuestro entramado socio-técnico. Cuando hablamos de arquitectura en el ciberespacio, según Lessig (1999 A), más que un texto legal o constitucional debemos entenderla como una forma de vida, una ecología, puesto que estructura poderes sociales y legales con el fin de proteger ciertos valores fundamentales. En este sentido, el diseño arquitectónico político del entorno Internet es fundamental para la libertad, la democracia y la diversidad cultural en nuestras sociedades.

Lo arquitectónico es algo que ya esta pensado, diseñado, construido y que produce efectos con independencia de las voluntades individuales y colectivas. Las arquitecturas son formas ordenadas y, muchas veces, no-volitivas de regular las conductas y los espacios. Por ello, la relación que hemos tenido con las arquitecturas ha sido siempre una relación inconsciente: la obra siempre supera la condición de su creación-creador, se independiza de ella, logra autonomía. A través del concepto de arquitectura quiero significar genéricamente las formas de establecer un orden en el cosmos, de regular instancias de forma durable, o constreñir de forma estable, por tanto, hablo de una forma durable en que las cosas simplemente son, en forma similar a como las mediaciones de las normas sociales configuran el entramado relacional. Las arquitecturas, por su firmeza, presentan generalmente resistencias al cambio, a la alteridad, y por lo general, las mismas tienden a volverse irreversibles cuando mayores son las tensiones e intereses en juego, o sea, en función de la cantidad y calidad de las redes involucradas en el mismo proceso de re-composición y cambio. Las arquitecturas dependen, en mayor o menor medida, de su composición y diseño originario, aunque las mismas están siempre supeditadas a los usos finales sobre el espacio.

Cuando hablo de arquitectura de Internet, a pesar de las diferencias entre el espacio urbano y el ciberespacio, me refiero a los mismos efectos de la arquitectura que construye lo urbano, o sea caminos, puentes, viviendas, monumentos, escuelas y cárceles. De hecho, me refiero al mismo tipo de arquitectura que condiciona e indica las formas de ser, aunque sería conveniente referir a todos aquellos ensamblajes, asociaciones, delegaciones que se dan entre redes de actores-humanos y actantes-no-humanos. Dicho en clave moderna, estos espacios -tanto el ciberespacio como el espacio clásico- poseen infinidad de naturalezas que tienden a mixturarse conformando nuevos entornos comunes [56] . Sin embargo, a pesar de las similitudes, las diferencias entre estas arquitecturas también son importantes. Cada espacio posee propiedades diferenciales, específicas y, por tanto, complementarias. Por ejemplo, la arquitectura del ciberespacio es más flexible y modificable que la arquitectura de lo urbano, puesto que, por un lado, el mundo digital esta próximo al espacio abstracto de las ideas y su contenido digital puede aún ser copiado, distribuido y alterado, prácticamente sin costo ni dificultad alguna. Por otro lado, la arquitectura del ciberespacio esta caracterizada desde sus inicios por ser abierta y flexible, puesto que permite su modificación y la construcción de nuevas arquitecturas sobre sus cimientos. En el ciberespacio las conductas de los usuarios son mejor reguladas a través del código que través de leyes clásicas [57] . Por ello, el diseño de las arquitecturas del ciberespacio conforma una instancia política ineludible al momento de plantear las tendencias actuales en el campo de las regulaciones en Internet.

Las arquitecturas en el ciberespacio también son efectivas por si mismas, nos afectan desde su inicio y permanecen inalterables por largos períodos. Estas reciben su proactividad del código que regula y diseña, a un mismo tiempo, el entorno Internet. En este sentido, no dependen de delegaciones de funciones en actores-humanos y, por tanto, poseen mayor estabilidad que el derecho, las normas sociales o las siempre negociables instancias de mercado. Sin embargo, esta proactividad y mayor rigidez frente a otras instancias de regulación, puede también ser una desventaja comparativa dependiendo del lugar desde donde observemos su condición. Los usos finales vuelven las arquitecturas tan polivalentes como cualquier otra instancia político regulativa. Este proceso se acentúa aún más cuando hablamos de una arquitectura flexible construida sobre bases abiertas y transparentes. En este sentido, la arquitectura de Internet, supuestamente material y rígida como cualquier arquitectura, ganó flexibilidad cuando se desarrollaron nuevas formas de codificación digital. Por tanto, siguiendo con el ejemplo, la arquitectura de la red es más rígida que otras instancia de regulación, pero a su vez, más flexible en sus bases que las arquitecturas de lo urbano. Aquí se encuentra uno de los mayores peligros dentro de esta instancia política regulativa. Allí es donde, como observamos en el capítulo 1, el campo de las regulaciones se encuentra atravesado por tensiones políticas frente a la clausura y al control que imponen las condiciones del tráfico mercantil.

A principios de la década de 90, cuando se hizo evidente que las formas clásicas de regulación no convertían Internet en un espacio confiable y seguro para los intereses de corporaciones comerciales y estados nación, esta flexibilidad originaria llevó a la arquitectura de Internet a ser el objeto principal de intervención política del campo de las regulaciones. Cambios profundos comenzaron a afectar la arquitectura de la red una vez que se hizo evidente la obsolescencia del derecho clásico para su regulación. La arquitectura originaria de Internet empezó a ser analizada desde otras perspectivas y tomo un protagonismo que no se condecía con su silenciosa modestia originaria. La importancia de las formas arquitectónicas emergentes se volvió aún más evidente con el advenimiento de la Internet privatizada, la que volvió Internet un medio comercial masivo en los países desarrollados. Las nuevas formas arquitectónicas -en realidad, nuevas formas de diseñar y regular el tiempo espacio- se vincularon directamente con el desarrollo y diseño de la tecnología. En algunos laboratorios emergió un nuevo ethos cibernético que comenzó a usar el diseño del entorno para controlar y volver más regulable las conductas y los espacios mediante la intervención directa sobre la arquitectura.

La arquitectura originaria de Internet emergió como una arquitectura aparentemente neutra, silenciosa, o mejor dicho, una arquitectura que dice poco, pero lo hace de forma flexible e irreversible a la vez. No es una arquitectura blanda, pero tampoco es insustituible o inmodificable. Internet, en este sentido, se parece mucho a un organismo biológico que en mayor o menor medida se encuentra fuera de un control centralizado. Este nuevo ethos cibernético de diseño de entornos que acompaña el desarrollo de Internet esta años luz de alguna moda vacía, o de algún plácido adormecimiento transcultural. Lejos estoy de suponer que puede existir una arquitectura a-histórica y a-política, puesto que este ethos cibernético penetra en lo profundo de las formas políticas silenciosas, en las formas políticas insólitas, seductoras, alternativas. Justo en momentos en que la arquitectura de lo urbano fijaba las bases del extrañamiento por las décadas del 60-70, de la perdida del sujeto, de la des-ubicación de lo humano bajo la arquitectura posmoderna, otras arquitecturas, esta vez de redes electrónicas, proyectaban la re-ubicación y sujeción de actores-humanos a un no-espacio-clásico, a una dimensión electrónica, figurativa, diametralmente opuesta a lo urbano y claramente histórica y política.

Desde esta perspectiva veo emerger nuevas arquitecturas de una forma violenta, pero silenciosa, de forma tan violenta como las instancias políticas que gobernaron el siglo XX, de forma tan silenciosa como un destino irreversible. Para nuestra generación, aquellos nacidos en la década del 70, la construcción de nuevas arquitecturas ha sido siempre un proceso silencioso, aunque su derrumbe, por el contrario, ha sido sorpresivo y violento. A decir verdad, lo significativo para muestra generación ha sido lo sorpresivo de los derrumbes de las diferentes arquitecturas políticas [58] . Sin dudas, nos encontramos frente a grandes cambios en las arquitecturas políticas a nivel global. Por tanto, creo imprescindible a auscultar la emergencia de una nueva arquitectura política silenciosa, una arquitectura de redes electrónicas que comienza a gobernar las conductas y los espacios a nivel global. En los apartados que siguen hago un breve recorrido por su historia, sus características centrales, su origen abierto y transparente, y por los elementos fundamentales que la componen. Intento evidenciar los peligros políticos frente a los que nos encontramos cuando hablamos de la emergencia de un nuevo arte regulativo que diseña los entornos en las diferentes capas de Internet.

 

B) La arquitectura originaria y los productores del entorno

 

Las redes son formas organizativas complejas, extendidas y dinámicas, que están compuestas por sistemas, puntos o nodos interconectados. Existen redes de todo tipo y forma; podemos encontrar redes de personas, telefónicas, eléctricas, de televisión por cable, o bien redes de computadoras. Las redes, a su vez, pueden ser redes centralizadas o descentralizadas, abiertas o cerradas, o bien, redes con mayor o menor grado de interconexión. Lo que caracteriza las redes es la propiedad de interconexión entre los diferentes puntos o nodos, y allí existen redes con mayor o menor grado de interconexión. Dentro de una red altamente interconectada podemos llegar desde un punto a cualquier otro punto de la red. La mayor o menor cantidad de alternativas en el transporte de un punto a otro punto cualquiera, dará el grado de interconexión que posee la red. El tipo de redes que más rápido se han extendido en estos últimos años han sido las redes electrónicas [59] . Las redes electrónicas son un conjunto de puntos o sistemas interconectados por algún medio físico de diferentes alcances y formas, que por medio de un software pueden lograr una comunicación entre computadoras distribuidas espacialmente. El desarrollo de las primeras redes electrónicas por la década del 60 -caracterizadas por su penetración, descentralización y flexibilidad- dio lugar al nacimiento de Internet.

Las mismas redes comenzaron a construirse a finales de los años 60 cuando su diseño paso a ser uno de los ejes centrales de la investigación y la creación de conocimiento informático. La actividad de interconexión entre dos o mas redes particulares a través de dispositivos de enlace -para facilitar la comunicación entre sistemas- se conoció como Internetworking. Dado que las computadoras eran escasas, caras, distantes y lentas, esta actividad fue concebida tempranamente como una forma de compartir el tiempo de computación, o mejor dicho, de procesamiento de información [60] . La velocidad y crecimiento exponencial del nuevo paradigma tecnológico sustentado en tecnologías digitales [61] permitió el aumento cuantitativo y, fundamentalmente cualitativo, del procesamiento de la información mediante procesos constantes, flexibles y dinámicos. Sin embargo, las redes electrónicas solo lograron extenderse, a mediados de los años 80, una vez que salieron al mercado y se volvieron accesibles las computadoras personales (PC). Esto generó la aparición de software de negocios y aplicaciones de oficina, específicamente procesadores de textos (killer app), que tenían por objeto expandir las ventas de computadoras personales. Ello posibilitó la expansión de las redes electrónicas, lo que posteriormente favoreció la expansión de las bases de Internet (Internetwork).

Como afirma Manuel Castells (2001: 15), Internet se ha transformado en “el tejido de nuestras vidas”, se ha convertido en una parte fundamental de nuestras sociedades. Sin embargo, a pesar del rápido crecimiento de las redes digitales, a nadie se le ocurrió por la década del 70 que estos oscuros, solitarios y contraculturales desarrollos iban a alcanzar semejante envergadura e iban generar nuevas arquitecturas de intercambio y producción socio-económica a nivel global. Nadie imaginó el impacto que estas tecnologías podrían tener sobre la noción de control, sencillamente porque nadie diseño las redes electrónicas tal como hoy las conocemos. Estas son la resultante de procesos convergentes, pero que no fueron proyectados como tales. El proceso de las tecnologías -tal como hemos expresado en el primer capítulo- es un proceso profundo de fusión, negociación y delegación que nos une directamente a nuestra condición sociotécnica. La historia de las tecnologías muestra claramente que la contribución de los usuarios finales es crucial para la producción, adaptación, transformación y gobierno de la tecnología. Este es el círculo virtuoso que perfecciona las tecnologías captando el proceso por el cual se retroalimentan los programas iniciales con los usos finales. Lo que queremos explicar tiene a Internet,  y específicamente a su arquitectura, como caso paradigmático.

Esquemáticamente, Internet puede definirse como un conjunto de nodos compuestos de computadoras enlazadas, hardware, lenguajes comunes, software y contenidos, donde circula información procesable tanto por redes de actores-humanos, como por redes y dispositivos de actantes-no-humanos. El nacimiento y desarrollo que caracterizó a Internet muestra la capacidad sociotécnica flexible para encontrar alternativas a las formas organizativas compactas, cerradas, burocráticas y centralizadas. La historia de Internet muestra que las redes de actores-humanos y actantes-no-humanos involucradas en su desarrollo han sido altamente heterogéneas: encontramos laboratorios de investigación científica de universidades, militares, grandes empresas y corporaciones, comunidades virtuales que se armaron como laboratorios de usuarios-finales interesados en la producción, gobierno y regulación de la red. Según Castells, Internet surgió de una formula insólita (Castells; 2001: 31), nació de la relación entre la gran ciencia, típica de la posguerra norteamericana, la investigación militar, y la contracultura libertaria de las universidades norteamericanas de los 60s y 70s. Sin embargo, los proyectos militares originales rápidamente fueron re-ubicados -o directamente relegados- y una fuerte tradición de interconexión alternativa de redes electrónicas generó un espacio de cooperación e innovación único en la historia de la humanidad [62] . En este sentido, Internet es ante todo una creación cultural atravesada por la idea de un espacio de intercambio libre [63] , y ello, sin dudas, se ve reflejado en su estructura básica.

La mayoría de los avances tecnológicos fundamentales para el nacimiento de Internet derivaron de grandes redes de actores que movilizaron recursos y conocimiento [64] . Internet solo llegó a su punto de aceleración, no tanto en su etapa de privatización en la década del 90, sino cuando primó una cultura colaboracionista-productora, sustentada en la libertad de la información, y en el reconocimiento de Internet, según Benkler (2000), como un espacio de innovación entre pares, de producción entre pares. Se crearon e involucraron rápidamente grandes redes comprometidas en el desarrollo de un nuevo espacio, grandes comunidades que poseían una fuerte conciencia de tecno-elite en donde primaba la cultura hacker (Stallman, 2002; Raymond, 2003;). Las mismas estaban generalmente atravesadas por los principios de libertad de circulación de la información y apertura de fuentes de los sistemas (Himanen; 2001). Estas redes de usuarios productores construyeron el espacio abierto que caracterizó Internet desde sus inicios y generaron las necesidades y usos que empujaron el desarrollo de Internet tal como hoy la conocemos. La cultura de la libertad nació entonces de las diferentes redes alternativas que estaban surgiendo no solo en Estados Unidos de Norteamérica sino también en los principales centro de innovación del mundo.

En este sentido, las comunidades, asociaciones y corporaciones sin fines de lucro tuvieron la capacidad de generar una sinergia única aprovechando la capacidad política flexible y abierta de la red [65] . Internet desarrolló una fascinante forma de gobierno, que no dependió de las formas clásicas instituidas. El típico déficit actual de instancias gubernamentales clásicas en Internet, sorprendentemente, fue una característica saliente de su desarrollo. Esta es la razón fundamental por la que no hago foco en este trabajo sobre las formas organizativas institucionales más evidentes de la red, como por ejemplo la Corporación de Internet para la Asignación de Nombres y Números (ICANN [66] ). La ICANN fue creada gracias a la visionaria tarea de Jon Postel en Octubre de 1998 y es la institución más evidente a la cual podríamos recurrir en busca de las tendencias actuales en la red. De hecho, la ICANN esta inspirada en algunos de los principios originarios de Internet y soporta, concentra y distribuye algunas (por suerte no todas) de las funciones de lo que se considera vulgarmente el gobierno de Internet. Asimismo, podría recurrir con propiedad a sus hoy instituciones vinculadas: la Internet Engineering Task Force (IETF) y la Internet Architecture Board (IAB) que coordinan el diseño del protocolo TCP/IP. Estas instituciones regulan formalmente Internet a un nivel transnacional. Sin embargo, para el presente trabajo preferí otro tipo de análisis para observar la gubernamentalidad y las tendencias actuales en el campo de las regulaciones de Internet.

El campo de las regulaciones de Internet tiene instancias gubernamentales que están en plena formación, pero que no se corresponden con procesos evidentes y clásicos de gobierno instituido. La extraña y fascinante forma de gobierno de Internet proviene de sus orígenes, de procesos gubernamentales silenciosos que muchas veces se encuentran ocultos en la modestia de las prácticas cotidianas. En su ya clásico, Galaxia Internet, Manuel Castells manifiesta que el reto fundamental en la sociedad informacional, es encontrar actores e instituciones con capacidad y voluntad suficientes para asumir los retos del gobierno el desarrollo tecnológico (Castells; 2001: 310). El desafío consiste en defender los valores del bien común, el interés público, los valores que sustentan las sociedades democráticas, abiertas y libres. Para Castells (2001), producto de la descentralización política las organizaciones-neo-gubernamentales (ONGs) forman parte de una nueva instancia gubernamental que esta emergiendo (Castells; 2001: 311). Estas ONGs se abocan a intereses específicos, como -entre otros- los de la Free Software Foundation, la Open Source Initiative, o Creative Commons [67] . Estas organizaciones-neo-gubernamentales están contribuyendo a orientar el desarrollo tecnológico, no a través de formas clásicas instituidas, sino a través de formas innovadoras y muchas veces subvertoras del orden estatuido. Estas tendencias en el campo de las regulaciones tienen sus bases en los orígenes de Internet, en la cultura de la libertad que soportó sus desarrollo, en la cultura hacker y en las profundas normas sociales que funcionaron como su instancia regulativa.

La arquitectura originaria de Internet permitió el florecimiento de un espacio abierto y libre de innovación común, que fue construido y sostenido por las redes comunitarias de usuarios productores y nuevas corporaciones involucradas en el gobierno de la red. La característica auto-evolución de Internet se produjo gracias a la flexibilidad y apertura que son constitutivas del espacio Internet. El espíritu de cooperación, la cultura de la libertad, y la arquitectura originaria abierta y transparente, condicionaron los desarrollos futuros de Internet. El desarrollo auto-evolutivo permitió que los usuarios, establecidos como pares, se convirtieran en productores de la tecnología que soportaba la red. Esto promovió la convergencia de redes de todo tipo y de tecnologías que se mantuvieron relativamente abiertas a las comunidades productoras interesadas en desarrollar sistemas comunes de comunicación. Este proceso generó el nacimiento de la Internet como un nuevo espacio inabarcable para la regulación clásica de espacios y conductas. Según Lessig (2001) el carácter abierto, transparente y descentrado de la arquitectura de Internet constituyo la principal fuerza que posibilitó la configuración de partes esenciales de la Internet a través de su uso final.

Internet nació con una característica fundamental: su transparencia. Transparencia referida a su arquitectura originaria y a los principios que todavía hoy la gobiernan. Internet tiene una arquitectura descentrada, abierta y flexible. Estas tres características permiten que Internet tenga una dinámica auto-evolutiva, puesto que las redes de arquitecturas abiertas pueden adaptarse para que otras redes puedan converger. Estos calificativos no están usados en vano, puesto que representan importantes razones históricas e instancias esenciales en el desarrollo de este nuevo medio. Si bien estas características de la red para muchos analistas están vinculadas a la contracultura libertaria norteamericana de la Internet de los años 80, y fundamentalmente, a la publicidad comercial -que explotó los imaginarios de la Internet- de la década del 90, estas características pueden ser reconstruidas con argumentos claros y sólidos. Estas características están insertas en la red y la definen desde sus orígenes, conforman su arquitectura y han sido la resultante de procesos técnicos de delegación de funciones provenientes de una fisión cultural muy particular. A pesar que el crecimiento exponencial de Internet se produce en la primera mitad de la década del 90, las bases arquitectónicas de la red ya formaban parte de la estructura originaria desde principios de la década del 70. Como bien afirma Castells (2001:31), Internet se vuelve masiva en el 1995, pero claramente “nació con las marcas de una historia”.

La arquitectura abierta de Internet permitió, por un lado, un amplio acceso público sin restricciones y, por el otro, permitió que -sin discriminación- todos los que poseían los recursos necesarios pudieran desarrollar su arte sobre esta plataforma. La misma funcionó como una invitación y, por ello, se vio favorecida por la tradición de interconexión alternativa. A esto se sumó que, la red fue construida de forma descentrada en función del diseño de intercambio de paquetes de información que se encuentra en sus bases. Los desarrollos iniciales de Internet tuvieron que prescindir de un centro neurálgico que controle el tráfico de información, dado que debían permitirse diversas vías de enlace e interconexión entre los diferentes nodos. Asimismo, la red fue creada de una forma flexible y la misma ha tenido una evolución permanente gracias a la apertura y el diseño orientado a distribuir la inteligencia de la red hacia sus extremos. En este sentido, la red es auto-evolutiva puesto que aprovecha aquello que sucede en sus extremos, en sus partes finales sin necesidad de un control centralizado. Estas características son consecuencia del diseño estratégico militar original, aunque preferentemente se deben también a la contribución de diferentes comunidades, laboratorios de universidades, usuarios productores y empresas que generaron programas de investigación y soñaron un nuevo sistema de comunicación bajo la forma de una utopía tecnológica.

Por tanto, tres son las características centrales que quiero resaltar sobre la arquitectura y los principios originales de Internet. Estas características son actuales y, por tanto, también históricas. Cada una de las tres refiere a una evolución particular de Internet. En primer lugar, desde el punto de vista de la evolución tecnológica, analizo la arquitectura descentrada producto de la conmutación de paquetes (Packet Switching). Su diseñador principal fue Paul Baran de la Rand Corporation. En segundo lugar, desde el punto de vista de la evolución organizacional, analizo como Internet se desarrollo bajo una arquitectura abierta y flexible producto de la utilización de un protocolo de comunicaciones que se llama TCP/IP, desarrollado originalmente por Vinton Cerf y Robert Kahn, pero también por muchos otros investigadores involucrados en el diseño original de la Internet. La tercera y última de las características de Internet la enfoco desde el punto de vista de la evolución del diseño de Internet y, por tanto, me refiero al argumento End to End. Los diseñadores tempranos de la red prefirieron redes inteligentes en sus márgenes, en su extremos, más que una red inteligente en su centro. Estas tres características conforman aquello que generalmente se llama la arquitectura distribuida, abierta, transparente de Internet. Paso a describir brevemente cada una de ellas.

 

C) La red distribuida: el packet switching

 

Para marcar la evolución tecnológica que inauguró su arquitectura descentrada comienzo por el paradigma del packet switching. Internet nunca fue pensado como se nos presenta en la actualidad, pero desde sus inicios presentó la necesidad de construir un sistema descentralizado. Esta necesidad fue cubierta a través de varios desarrollos y marca una de las características centrales tanto en la historia, como en el desarrollo futuro de Internet. Este desarrollo consistió en la creación de un inmenso espacio sin un centro que controle y dirija los flujos de información. Así nació un nuevo paradigma que se llamó conmutación o intercambio de paquetes de información (Packet Switching). Su desarrollo, allá por los primeros años de la década del 1960, se debe en parte a los Norteamericanos, Paul Baran de la Rand Corp. y Leonard Kleinrock del MIT y en parte al Inglés Donald Davies. Aunque haya sido Paul Baran el que apareció como creador del packet switching, lo cierto es que este nuevo sistema de telecomunicaciones fue diseñado y construido en conjunto con otros investigadores [68] .

El intercambio de paquetes fue claramente una necesidad de seguridad militar que trató de resolver el problema hipotético de ataques nucleares simultáneos sobre los centros de información en los Estados Unidos de Norteamérica. A pesar que la idea era sin dudas excepcional, el pentágono y las empresas rechazaron la propuesta en primera instancia. Según Lessig (2001) la razón principal del rechazo estuvo en que Baran pretendió involucrar los laboratorios de la empresa monopólica de telefonía de los Estados Unidos (AT&T) sin advertir que para la red de telefonía de AT&T, el control y la jerarquía dentro de las redes, eran claves que sostenían su poder bajo una arquitectura centralizada. La arquitectura de control que poseía AT&T centralizaba la innovación y protegía básicamente su modelo de negocios (Lessig; 2001: 33-34). La tecnología de conmutación de paquetes (packet switching) pretendió con éxito reemplazar los persistentes circuitos alrededor del cual el sistema de teléfono estaba construido. Por  tanto, a pasar de la primeras resistencias, Baran continuo publicando lo que el pensaba como un nuevo sistema de telecomunicaciones contrapuesto al sistema de las redes clásicas. Luego de un largo recorrido sus desarrollos fueron atendidos.

Baran pensó en al menos cuatro principios básicos para aportar flexibilidad, autonomía a los nodos y descentralización de la información. Uso la digitalización para quebrar y distribuir la información en varios paquetes separados que pudieran ser procesados tomando rutas alternativas e independientes dentro de una red. Esta era una forma de ganar en redundancia, o sea, en múltiples opciones de ruteo de la información sin depender de una sola fuente. Esto habilitó la posibilidad de que muchos compartan los cables y/o las conexiones de la red. La conmutación de paquetes fue, en el inicio de ARPANET, la única solución para las redes de comunicación de área extendida. De esta forma, se aprovechó eficientemente el tiempo de silencios que toda red de circuitos tenía y que la conmutación de paquetes podía manejar con mayor eficiencia. La serie que componía la conmutación de paquetes se basaba en la separación de la información por parte de la computadora emisora, etiquetamiento de los paquetes, (en función de origen, destino y ubicación de cada archivo separado en el archivo original), envío de los paquetes por la red a través de los ruteadores y, por ultimo, el rearmado de los paquetes de información -en función del orden original- en la computadora receptora.

Una de las metas esenciales de ARPANET era diseñar dispositivos de red que permanecieran activos si parte de la red colapsaba. Sumado a esto, o mejor dicho provocado por esto, emergió un gran desarrollo de tecnologías de redes electrónicas que generó, desde comienzos de los '70, otro aspecto esencial para el futuro de Internet. A saber, la interconexión de redes, o sea, la interoperabilidad entre diferentes redes y sus aplicaciones. La necesidad de interconexión de redes y el entorno de arquitectura abierta se basó en la no modificación interna de cada una de las redes preexistentes [69] . Sin embargo, un protocolo de comunicación que pudiera controlar perfectamente el nivel de las operaciones en el intercambio de paquetes hubiera violado el principio del intercambio de paquetes de una red descentrada y hubiera sido demasiado complejo y lento. Por tanto, independiente de la estructura de la red física subyacente, se generó un protocolo de comunicación básico y neutro que funcionó, mediante un software, entre las redes físicas y las capas de las aplicaciones de usuarios. En la década del 70 se creó entonces un nuevo protocolo de conexión para una red ampliada: Protocolo de Control de Transmisiones / Protocolo de Internet, conocido mundialmente por sus siglas en inglés TCP/IP (Transmission Control Protocol / Internet Protocol). Paso ahora a analizar el segundo de los tres principios que ordenaron la arquitectura incipiente de Internet desde sus inicios.

 

D) La apertura del TCP/IP

 

La primera meta del diseño de TCP/IP fue construir una interconexión de redes que proporcionase servicios de comunicación universales, abiertos y convergentes. Fue diseñado en su parte inicial (TCP) en 1973, por Vinton Cerf y Robert Kahn, en el marco de la red de la Agencia de Programas Avanzados de Investigación (ARPA, siglas en inglés) del Departamento Norte Americano de Defensa. Estos protocolos, se basaron en trabajos iniciales del famoso Network Working Group. Cinco años después de estos primeros desarrollos, el mismo Vinton Cerf, junto a otros investigadores, como Jon Postel, partieron el TCP agregándole el Protocolo de Internet (IP) conformando de esta manera el protocolo sobre el que funciona la red actualmente. El TCP/IP como su nombre indica se compone de dos partes principales. La primera (TCP) es la parte de  Protocolo de Control de Transmisión (Transmission Control Protocol) y la segunda parte (IP) es el Protocolo de Internet, un conjunto de reglas que gobiernan la forma en que viajan los datos de una maquina a otra a través de la red. La arquitectura para comunicar redes que usa los protocolos TCP/IP implica que todas las redes que intercambiarán información deben estar conectadas con equipos de procesamiento de información que son denominados compuertas. Tal arquitectura reconoce como iguales a todas las redes a conectar, sin tomar en cuenta el tamaño de ellas, sean estas locales o de cobertura amplia [70] .

El TCP/IP fue adoptado como un estándar del departamento de defensa a principios de la década del 80, pero no logró imponerse, según Raymond (2003), hasta no fusionarse con la ya estructurada cultura hacker de UNIX por el año 1983, y con la cruzada por el software libre de Richard Stallman unos años después. Aunque el TCP/IP fue una estandarización muy importante la misma se desarrolló de facto (de hecho) y no fue uno de los estándares definido por la Organización Mundial de Estandarización (ISO). Fue impuesta por la fuerza de la práctica y se volvió masiva con el desarrollo y surgimiento de Internet tal como hoy podemos visualizarla. El TCP/IP es una simplificación del modelo de protocolo OSI de siete capas (Open Systems Interconnection) usado para redes de computadoras. El OSI, de fácil entendimiento, fue reemplazado por el TCP/IP que resultó ser más práctico. Su carácter abierto fue lo que lo llevó a convertirse en un estándar común a nivel internacional superando el X.25 [71] . Como afirma Castells, la discusión de fondo estaba, más que en los protocolos propiamente dichos, en el tipo de redes que iban a soportar estos protocolos y, sobre todo, en quieres iban a manejar las redes. En otras palabras, la discusión giraba en torno al tipo de control que iban a habilitar estos nuevos protocolos sobre las redes de telecomunicaciones. Para el caso Europeo estaban involucradas las grandes empresas de telecomunicaciones, las que no veían con buenos ojos que redes privadas puedan utilizar sus redes públicas. Por el otro lado, ARPANET en los Estados Unidos, interesada en los protocolos TCP y en difundir la diversidad e interconexión alternativa sobre todo tipo de redes (Castells; 2001: 41-42).

El TCP/IP logró superar todas las instancias de competencia con otros protocolos juntamente por su carácter abierto heredado del OSI. A diferencia del modelo de referencia OSI que posee siete capas [72] , la arquitectura TCP/IP viene definida por una simplificación de 5 capas jerárquicas e independientes unas de otras [73] . El TCP/IP garantiza la comunicación fiable y segura entre computadoras. Simplificando, vemos que la parte del TCP es la encargada de fragmentar la información en paquetes y de garantizar la transmisión fiable de datos entre el que trasmite y el que recepta la información. Debe, por tanto, encargarse de fragmentar, reagrupar, detectar errores, gestionar las retransmisiones y controlar en general el tráfico de datos. El protocolo IP es el responsable de seleccionar, dirigir y rutear los paquetes fragmentados a través de la red. En otras palabras, administra la dirección de cada paquete para que pueda arribar a su destino correcto a través de cada pasarela o router en la red. Como algunos paquetes del mismo mensaje, serán ruteados en forma independiente, todos ellos deberán ser nuevamente reunidos por el TCP en su destino correcto.

Dentro de una red para facilitar la comunicación entre diferentes puntos o nodos las computadoras deben estar identificadas con precisión. El TCP/IP utiliza un identificador denominado dirección IP, cuya longitud es de 32 bites. La dirección IP identifica tanto a la red a la que pertenece una computadora como a ella misma dentro de dicha red. A diferencia de las clásicas comunicaciones telefónicas que necesitan centrales y una conexión dedicada -la que se mantiene activa durante toda la comunicación-, una comunicación TCP/IP de alto nivel es considerada sin estado, puesto que cada pedido del cliente es tomado como un nuevo pedido sin relación con el pedido anterior. Esta falta de estado en la comunicación es lo que permite que pueda funcionar perfectamente la conmutación de paquetes dejando libres los caminos de la red para que todos puedan usarla de forma continua y simultanea. La composición del TCP/IP sostuvo la estructura de capas para posibilitar la mayor cantidad de interacción distribuida y relativamente anónima. La arquitectura de la red fue diseñada para transportar datos de una parte a la otra de la red mediante estos protocolos que en ningún caso revelan información sobre las personas conectas a la red, ni sobre los datos intercambiados. La decodificación y ejecución de la información trasportada se dejó en manos de las aplicaciones que se encuentran en cada uno de los extremos de la red. Este diseño, según Lessig (2001), claramente minimalista, resultó en la desactivación del control centralizado que ya había anticipado el packet switching.

Es necesario pasar a la tercera, y última, de las tres características de este apartado. Mi perspectiva ahora pasa a tener en cuenta la evolución del diseño de la red y, tal vez, los principios y argumentos filosóficos que se encuentran en las decisiones del diseño de Internet. Nos referimos al argumento End to End (E2E), a través del cual los diseñadores originarios prefirieron redes inteligentes en los márgenes, en su extremos, en los finales de la red, más que redes inteligentes en su centro. Este principio, como es obvio, continua y es parte constitutiva de los dos desarrollos que he descrito anteriormente y conforma la característica general de un tipo específico de arquitectura de redes. Puede decirse que este principio E2E es la mayor especificidad política al momento de diseñar una red. ¿Dónde debemos ubicar la inteligencia de una red? ¿Cuál es nuestro reservorio de diversidad, libertad, democracia e innovación? La respuesta es obvia: hay que preferir la diversidad y la distribución a la homogeneidad de un control centralizado. Sin dudas, el argumento E2E es una de las lecciones más importantes en el desarrollo de Internet.

 

E) El principio de la incertidumbre: E2E

 

A diferencia de la red de teléfonos, o de la red de telégrafos, pero también a diferencia de otras redes como las de televisión o las de televisión por cable, en la Internet subyacen principios bien diferentes que hay que proteger desde el punto de vista filosófico-político. La red de televisión, por ejemplo, es una red de señales centralizadas, es una red cerrada y no interactiva. Por el contrario, como vimos, las tecnologías de algunas redes de computación pueden ser descentradas, abiertas y fundamentalmente interactivas. Como en el caso de Internet, estas redes heterogéneas son arquitecturas par-a-par (peer to peer, o P2P), o sea, redes donde cualquiera de los integrantes puede funcionar como emisor o receptor de información sin importar su ubicación. Mejor dicho, esta relación entre los que se llaman servidores y clientes es completamente reversible. Siguiendo la comparación vemos que la red de teléfonos al igual que la Internet es interactiva. Sin embargo, la red de teléfonos tiene una inteligencia y un control que son centralizados. Tal como afirma Benkler, la digitalización llevó a la descentralización del medio Internet y en este sentido, los dos modelos con los que comparamos Internet (TV y teléfono) fueron centralizados y basados en una arquitectura de red distinta de Internet (Benkler; 1998).

La digitalización y la convergencia de las tecnologías dieron a Internet la posibilidad de desarrollar una desconcentración de funciones básicas, las que quedaron plasmadas en su arquitectura original. Paul Baran trató de evitar la concentración en las comunicaciones y propuso un tipo de tecnología de intercambio de paquetes contrapuesto a las omnipresentes redes de telefonía basada en circuitos. Dentro de Internet encontramos comunicaciones repartidas entre lo que se llaman genéricamente clientes y servidores. El ‘cliente’, está representado por los programas que funcionan en la máquina del usuario final y se comunican con un ‘servidor’ para que le provea datos o para enviarle información. El servidor es también una computadora que, junto a los programas de almacenamiento de información, procesa requerimientos y sirve a los usuarios-clientes finales. Lo interesante de Internet es que estas instancias de comunicación son fácilmente reversibles y cualquier computadora puede funcionar como servidor o como cliente. Esto es lo que se conoce como arquitectura par a par (P2P), una arquitectura que habilita la comunicación de iguales a iguales de una forma reversible y que posee un procesamiento distribuido de la información.

Las primeras computadoras (mainframe) concentraban la información y su procesamiento, en una computadora central a la que se conectaban terminales o computadoras tontas o bobas. Es importante resaltar que los diseñadores de redes distinguen entre las computadoras que están en el fin o en el margen (end o edge) de una red, de aquellas otras que soportan y enlazan las redes o genéricamente se encuentran un su centro. Sin embargo, con la aparición de las computadoras personales por los años 80 se produjo un cambio fundamental en las redes electrónicas. Las redes de computadoras fueron evolucionando hasta lograr distribuir trabajo, compartir información y repartir funciones entre clientes y servidores. Los recursos pasaron a ser compartidos y la relación cliente servidor paso a ser una relación reversible y polivalente. Estos procesos, dado que remiten a la comunicación dentro de las redes de computadoras, fueron más bien invisibles, aunque claramente se iniciaron el desarrollo de una inteligencia interconectada y distribuida.

Para diseñar las partes que componen el entorno Internet los diseñadores de redes tuvieron en cuenta un principio básico. Retomando los análisis de los primeros arquitectos de redes (1981) Lessig describe el argumento end to end (E2E). El Argumento End to End fue descrito por primera vez en 1981 por los arquitectos de redes Jerome Saltzer, David Clark, y David P. Reed (Lessig; 2001: 34). En un paper de 1981 [74] estos autores afirman que el argumento E2E es un principio de diseño que ayuda a distribuir funciones dentro de un sistema de computadoras distribuido. El mismo principio guía a los diseñadores de redes en el desarrollo de protocolos y aplicaciones (Saltzer, Reed, Clark; 1981). El Argumento End to End sugiere que las funciones ubicadas en un nivel bajo de un sistema, o sea, para nuestro caso, ubicada en las máquinas terminales de la red, pueden ser redundantes. Redundantes en el sentido que pequeños valores se suman a un sistema mayor con el objeto de soportar funciones esenciales para la mejora de las transmisiones, la confiabilidad de las mismas y la seguridad de los de sistemas y redes. Según los autores, el argumento E2E puede ser visto como parte de una organización sobre principios racionales dentro de un sistema basado en diferentes capas (Saltzer, Reed, Clark; 1981).

El principio E2E que guió a los diseñadores de redes, algunos protocolos y muchas de las aplicaciones que han revolucionado Internet puede sintetizarse de la siguiente forma: antes que localizar la inteligencia centralizada dentro de una red, es preferible ubicarla en muchas pequeñas funciones que son requeridas por diferentes aplicaciones distribuidas. La resultante de este argumento será que la complejidad y la inteligencia, en vez de concentrarse, son empujadas hacia fuera por la misma red. El criterio consistió en lograr redes simples en su centro, con aplicaciones complejas e inteligentes en sus extremos. Dirá Lessig que los diseñadores tuvieron en mente el diseño de redes simples con aplicaciones inteligentes (Lessig; 2001: 35). En este sentido, Lessig afirma que la razón por la que se optó por este diseño fue la flexibilidad, inspirada por cierta humildad (Lessig; 2001: 35). Este argumento, junto a los principios subyacentes, han sido utilizados en muchos contextos y se han transformado, según Raymond (2003), en algo común para los diseñadores de redes, protocolos y sistemas operativos.

El argumento E2E ubica la inteligencia dentro de la red en los finales de esta, en los márgenes. En el diseño E2E tanto la complejidad, como la inteligencia de la red, esta desplazada hacia los extremos de la misma red. En otras palabras, las computadoras dentro de las redes deben efectuar solo funciones simples que son necesitadas por un conjunto de aplicaciones, mientras que las funciones que son necesitadas solo por algunas aplicaciones deben ser ejecutadas en el extremo de la misma. El argumento E2E impone una estructura sobre el diseño espacial, más que resolver los problemas de diseño propiamente dichos. Sirve para justificar y balancear los análisis y las opciones de diseño. Estos postulados han servido para definir estos principios de diseño de redes dentro de lo que los autores llaman ‘active networking’ (Reed, Saltzer, Clark; 1998). El Request For Comments N° 1958 de la Internet Arquitecture Board (IAB) es claro al resaltar la importancia del principio E2E. Especifica que el trabajo de la red esta en transmitir datagramas tan flexibles y eficientemente como sea posible y que el trabajo restante debe ser hecho en los márgenes de la red (NWG; RFC N°1958; 1996).

Esta es la consigna que marca el acercamiento a un nuevo paradigma en el campo de las comunicaciones que hace uso de reglas simples para la resolución de problemas complejos. En otras palabras, estoy mostrando los principios de una arquitectura de red que no fue nunca planificada completamente, pero que gracias a la incertidumbre evolutiva, y a una actitud respetuosa hacia lo nuevo, fue construida para establecer un marco mínimo y básico desplazando la carga del procesamiento de la información al espacio donde mejor podría haberlo ubicado, o sea, en todos y cada uno de los constructores-productores del mismo espacio. El diseño de la red, a través de los principios que hemos estado viendo, desactivo el control centralizado justamente para que nadie pudiera controlar como y hacia donde la red podía crecer. No fue algo premeditado y sus resultados han sido francamente imposibles de prever. Todavía hoy, desde una perspectiva evolutiva, sus resultados son realmente sorprendentes.

La arquitectura de la red originaria dejó completamente abierta la posibilidad de que las terminales extremas pudieran tener un control distribuido a través de sus aplicaciones. Este punto fue esencial para el desarrollo de Internet, un desarrollo sin cuellos de botellas y claramente fuera de control. Mejor dicho, bajo un control distribuido, medido y responsable. En este sentido, Internet se asemeja más a un organismo biológico que a un nuevo medio masivo de comunicación [75] . ¿Que ocurre cuando no se conoce como se desarrollaran algunos espacios y ciertas tecnologías? ¿Qué ocurre cuando las mediaciones entre actores-humamos y actantes-no-humanos superan la posibilidad de prever las posibles implicancias de sus asociaciones? La opción responsable que marca la historia de Internet es que si no se sabe cuales son las mejores opciones, conviene que todos contribuyan en la conformación del espacio, dando la posibilidad de que algo nuevo emerja, dejando que las redes simples -sin intervención centralizada- habiliten nuevos usos no previstos inicialmente, o mejor dicho imposibles de prever. Este es un elemento esencial de la historia de Internet. Tal como afirma Lessig, Internet no es la única red en seguir el diseño E2E, aunque si puede afirmarse que es la primera red de computadoras que nació con este diseño en su arquitectura (Lessig; 2001: 39).

El principio E2E mas que una estrategia fue una actitud respetuosa (Lessig; 2001: 39), basada en la idea de la incertidumbre. Cuando no sabemos la forma en que un sistema se desarrollará, estamos obligados a construir un sistema que permita una amplia gama de desarrollos. Esta fue la motivación o actitud principal de los arquitectos originales de Internet y estas fueron las tecnologías que lo gestaron. Como bien escribe Javier Candeira (2001) debemos tener en cuenta cuales son las implicancias de las diferentes formas organizativas-evolutivas dentro de Internet. De allí la importancia política vital de las arquitecturas como forma de configurar la ecología informacional de nuestras sociedades. De aquí la trascendental importancia de las nuevas mediaciones técnico regulativas emergentes que codifican la capa de las aplicaciones. Estas fueron las bases de lo que hoy conocemos como arquitecturas par-a-par, las que pueden ofrecer un espacio de intercambio e innovación por fuera de un control centralizado y asfixiante. De hecho, Internet fue concebida en la última parte de los 60 como una arquitectura P2P donde ARPANET tenía como principal objetivo mantener una relación simétrica y equitativa entre los pares actores que se conectaban a la red [76] .

La tecnología de intercambio de archivos par-a-par puede ser definida entonces como el conjunto de protocolos y arquitecturas que permiten a los usuarios finales, sin distinción de jerarquías (o al menos no más jerarquías que las que una comunidad quiera establecer), ofrecer, copiar, intercambiar o ejecutar, contenidos privados sin que ninguna instancia pública o privada centralizada deba legítimamente controlarlos. El crecimiento de las redes electrónicas de intercambio y producción entre pares (P2P) han generado en pocos años cambios profundos en las formas de comunicación y organización social. No solo han puesto en pánico a las industrias de entretenimiento y culturales, y a los gobiernos de los estados nación, sino que las arquitecturas P2P -basadas en los principios que hemos ido analizando- están alterando los términos de intercambio cultural, económico y social a nivel mundial. Algunas corporaciones comerciales están preocupadas por la pérdida de control sobre las industrias culturales debido al cambio de paradigma en la arquitectura de las redes. En el mismo sentido, los gobiernos están obsesionados por la perdida del control centralizado frente a una tecnología distribuida, abierta y transparente como Internet.

El principio E2E que subyace en la red puede claramente visualizarse a través de las tecnologías P2P. Este principio desactivó el control central en el desarrollo de Internet y es allí donde Lessig ve la Internet como una innovación común que conforma un espacio común, o sea, un espacio bajo controles difusos y sostenido por las comunidades donde los innovadores pueden desarrollar y desplegar nuevas aplicaciones o contenidos sin el permiso de nadie. Sin embargo, todo indica que nos encontramos frente a una lucha por el control de las formas organizativas en las redes de información. Para Siva Vaidhyanathan (2003) estas arquitecturas P2P generaron una tensión política irreversible. Las mismas están atravesadas por el diseño de entornos donde se involucran al menos dos formas o modelos en relación a la organización informacional. Según Vaidhyanathan (2003) en la organización informacional podemos diferenciar entre anarquismo y oligarquismo informacional. Ambos se retroalimentan, oponen y reaccionan recíprocamente. El oligarquismo informacional hace uso de los pánicos morales e intenta por diferentes medios conservar la concentración y acumulación de la información. El anarquismo informacional se vincula directamente con el libertarismo que intenta lograr la descentralización y distribución de la información. Si bien el anarquismo-libertarismo no es la democracia propiamente dicha, según Vaidhyanathan (2003), aparece como una buena forma de resistir la tiranía y el conservadurismo.

 

F) El control sobre las capas analíticas de Internet

 

Llegados a este punto, creo importante avanzar en dirección al análisis de la composición del espacio Internet. Las tensiones en el campo de las regulaciones en Internet pasan hoy por el control sobre las diferentes estratos o capas que componen la red. Comprender estas capas es esencial para el campo de las regulaciones y para la creación de principios que puedan dar un marco que garantice la libertad y transparencia de la arquitectura política originaria. El espacio Internet está compuesto analíticamente por diferentes plataformas o capas que están inspiradas en el modelo paradigmático del protocolo que estructuró su arquitectura política [77] . El funcionamiento de cualquier sistema de comunicación puede ser dividido en capas y, específicamente, siguiendo a Yochai Benkler, podemos caracterizar analíticamente a Internet como un espacio constituido por tres capas superpuestas e interdependientes (Benkler; 2000). Las capas se pueden ordenar en forma ascendente de la siguiente manera: capa física, capa lógica, capa de contenidos. Existe la posibilidad de dividir también el medio de comunicación Internet en 6 capas analíticas. Así lo hacen convenientemente Lawrence Solum y Minn Chung (2003) [78] , aunque a los fines del presente trabajo preferimos tomar el modelo simplificado de 3 capas de Benkler.

La primera de las capas es la llamada ‘capa física’ o ‘capa de infraestructura’. Lessig  la define como la capa a través de la cual las comunicaciones viajan (Lessig; 2001: 23) y está compuesta por computadoras, cables, hondas y toda la infraestructura que hace posible un medio de comunicación como Internet. Puede también definirse como la capa del hardware. La segunda de las capas, ubicada en medio, continúa el camino ascendente y es la llamada ‘capa lógica’, o ‘capa del código’, y está compuesta por todos los componentes que hacen que la parte de infraestructura efectivamente funcione. En otras palabras, es la capa en donde podemos ubicar a los protocolos, algunas arquitecturas y las aplicaciones, software y servicios que hacen funcionar el hardware. La tercera capa es la llamada por Yochai Benkler (2000) la ‘capa de contenido’. Es la capa superior y está compuesta de todo aquello que es escrito, dicho, mostrado, publicado o trasmitido a través de los cables y aplicaciones de la red (Lessig, 2001: 23).

Todas las capas en las cuales puede ser dividida una red como la Internet, están compuestas por diferentes tipos de recursos, los que a su vez pueden ser más o menos controlados. Los recursos, siguiendo a Lessig (2001), pueden ser soportados por diferentes redes de actores: el estado, las empresas, las corporaciones -con o sin fines de lucro-, por universidades, por particulares, o bien, pueden ser recursos soportados en común, o sea, comunitariamente por el conjunto de un colectivo [79] . Los recursos pueden ser básicamente ‘libres’ o ‘controlados’. Para Lessig los recursos libres son aquellos disponibles para ser tomados por cualquier persona sin solicitar permiso. Por el contrario, los recursos controlados son aquellos en los que se requiere un permiso de alguien antes de que el recurso pueda ser usado (Lessig; 2001: 11). Si bien la regulación sobre los recursos de Internet es francamente inevitable, existen diferentes tipos de control entre los cuales se puede optar. En este sentido, los recursos libres son fundamentales para la diversidad cultural, la innovación y los valores democráticos. En el otro extremo encontramos que la regulación exhaustiva de bienes dentro del régimen de propiedad-exclusividad pueden brindar mayor eficiencia en la productividad de los recursos desde el punto de vista económico. Entre estos extremos, un mundo de posibilidades, sistema y regulaciones posibles.

¿Cuál es el nivel de control que puede soportar cada una de las capas de Internet? ¿Cuál es el beneficio o perjuicio que estas opciones traen aparejada para la ecología informacional de nuestras sociedades? A decir verdad, dentro del ciberespacio existen partes más regulables que otras. La ecología informacional de las redes electrónicas depende del nivel de control y regulabilidad que soporte cada una de las capas analíticas, o sea, depende de la regulabilidad que soporte la arquitectura de la red como instancia política (Kapor; 1990; Lessig;1999). La mayor o menor regulabilidad de Internet no está determinada por la naturaleza esencial de cada una de las redes, sino por su arquitectura como instancia política. De allí la importancia de conocer el estado de las mediaciones técnico políticas de nuestro entramado sociotécnico en un momento determinado. Como la arquitectura flexible de Internet lejos está de tener una naturaleza pétrea e inalterable, la regulabilidad del espacio Internet depende de la naturaleza o la composición del código que gobierne la arquitectura del ciberespacio. Por tanto, el nuevo arte regulativo, sin dudas, es la clave para que auscultemos las nuevas tendencia dentro del campo de las regulaciones en Internet.

De esta forma, podemos observar que la capa de la infraestructura de Internet es una capa altamente controlada. Las computadoras, los name rootservers, los routers, los cables o los servidores pertenecen a alguien: estados, empresas, universidades, o bien, particulares. Esta capa esta altamente controlada bajo el régimen de la propiedad privada. En la capa del hardware, puede decirse que Internet es una gigantesca red de infraestructuras privadas y de tecnologías propietarias. Sin embargo, esta es solo una de las capa de la red, puesto que la mayor parte de Internet en lo referido a su capa lógica se construyó a base de estándares no propietarios, o sea, por fuera del régimen de la propiedad privada. Los mismos han sido desarrollados con financiamiento de los estado, por empresas, universidades, investigadores privados, grandes comunidades virtuales, o directamente en muchos casos, por usuarios productores del espacio Internet que han dejado sus desarrollos en el dominio público, o bien, los han licenciado libremente para que se facilite su uso masivo. Aunque la Internet fue construida sobre una infraestructura controlada por el régimen de la propiedad privada, los protocolos abiertos de la Internet (TCP/IP) han creado un espacio de innovación donde la información es libre a nivel global.

El espacio Internet fue, como bien afirma Lessig, un espacio de libertad construido sobre una plataforma controlada, pero esta libertad construyó, a su vez, una innovación común en la capa lógica. El espacio de libertad en la capa del código sin dudas fue posible gracias al aporte de un diseño arquitectónico que ubicó la inteligencia en los extremos, pero que fundamentalmente, como afirma Castells, se nutrió de los componentes contraculturales y libertarios del ambiente académico norteamericano de los años 70. Esta innovación conformó un espacio común a través de una específica arquitectura técnica que permitió que la creatividad floreciera. En este sentido, Lessig (2001) sostiene que existe un beneficio alto para los recursos soportados en común y que es justamente Internet la mejor evidencia de ese beneficio. Sobre esta capa lógica es donde el código reina como el nuevo regulador proactivo en la construcción y diseño de un nuevo entorno sociotécnico. Aquí es donde el código regula las aplicaciones, las interacciones y las asociaciones de esta nueva ecología informacional. En la capa lógica se enfrentan, de una manera radical, el software libre contra el software propietario y, por ello, es la capa a proteger como espacio de innovación común [80] .

El software de código abierto, por tanto, es fundamental tanto para la capa analítica lógica como para su relación con las otras capas de la red. El código abierto es menos proclive a la regulación jurídico clásica que el código cerrado. Algunas partes del ciberespacio aún son bastante libres aunque, ciertamente, ello no quiere decir que no están reguladas de alguna otra forma. Todo el ciberespacio está atravesado por mediaciones políticas a todo nivel. Lo cierto es que, el código abierto constituye un importante mecanismo de control frente al poder del estado nación y de algunas corporaciones comerciales. Mientras el código permanezca abierto, el poder del estado y de algunas corporaciones comerciales podrá ser morigerado. En este sentido, Internet todavía es una red constituida por un conjunto de protocolos abiertos, no propietarios, para cuyo acceso y utilización no se requerían mayores controles en relación a la identidad. Como vimos, los protocolos sobre los que se basó Internet no revelan información alguna acerca de la persona que se conecta a la red ni de los datos que intercambia. La red conserva cierto anonimato y se limita a transportar los datos dejando su interpretación a las aplicaciones que se encuentran en sus extremos. Nadie necesita solicitar permiso para utilizar determinados servicios básicos, ni para instalar o experimentar aplicaciones en Internet. El argumento E2E, como diseño minimalista, desactiva el control centralizado y deja abierta la red para cualquier innovación que se desarrolle. Por ello, tanto el software libre, como las arquitecturas par-a-par son buenos ejemplos políticos de esta libertad distribuida que produjo Internet.

Sin embargo, existe en la actualidad –desafortunadamente- una tragedia de los espacios comunes de Internet. Las tecnologías de control que se desarrollan sobre la arquitectura originaria de la red, según James Boyle (2001), están terminando con la apertura y transparencia que la caracterizó. Cada vez más Internet está adoptando una amplia arquitectura de regulación, lo que genera una tragedia de los espacios comunes, del espacio de innovación común que los protocolos de Internet permitieron. Esta tragedia es la tendencia que resulta de agregar tecnologías de control e identificación a una red relativamente anónima, abierta y transparente. Como ha quedado claro en el primer capítulo, la tendencia hacia la regulación de todos y cada uno de los aspectos de la vida social respalda siempre la visión socio-económica. El estado y las corporaciones comerciales prefieren, obviamente, arquitecturas que favorezcan una mayor regulabilidad y que permitan un incremento de las tecnologías de control en el ciberespacio. Las tecnologías de control que promueven credenciales son, como establece Siva Vaidhyanathan (2003), tecnologías inherentemente oligárquicas interesadas en saber quien, por qué, y como, realiza tal actividad que puede estimarse valiosa, riesgosa, o necesariamente controlable. A diferencia de épocas pasadas el control exhaustivo sobre la red es ahora posible, aunque no siempre deseable o conveniente. Las tecnologías de control se pueden situar por encima de los protocolos y códigos que componen la capa lógica de Internet con el fin de volver más regulable la red para el comercio y las siempre difusas razones de estado.

Las arquitecturas de control se han vuelto posibles y pueden incorporarse fácilmente a Internet gracias a la apertura y transparencia de la arquitectura originaria. Las regulaciones que las corporaciones comerciales desarrollan, a través del código del espacio de las aplicaciones, funcionan en connivencia con las regulaciones jurídico clásicas que el estado puede habilitar. El control es codificado por parte del comercio con el apoyo-anuencia o directamente la ausencia-impotencia del estado-nación. La red se desplaza, incluso sin el apoyo del estado, hacia una arquitectura de control que favorezca las credenciales para el comercio electrónico. Este es uno de los peligros más importantes en relación al campo de las regulaciones en Internet. La ausencia de hechos auto-identificadores en el ciberespacio reduce su regulabilidad directa y ello aumenta el crecimiento de las tecnologías de control. Estas tecnologías, según Lessig (2001), funcionan mediante la posibilidad de identificar y discriminar quienes hacen, que hacen y como lo hacen, dentro de Internet. Las tecnologías de control, siguiendo a Lessig (1999-A), tienen como objetivo que la red aumente en la segmentación y la fragmentación para permitir credenciales (identificar quien, que, como), etiquetar paquetes de información y lograr una especie de zonificación, donde se condiciona el acceso y se discriminan personas y contenidos [81] .

Es necesario, como afirman claramente Solum y Chung (2003), que los principios elementales involucrados en el funcionamiento y desarrollo de Internet se vuelvan transparentes para el ejercicio regulativo de carácter público. En este sentido, creo que el respeto de la arquitectura originaria, la separación, autonomía, transparencia e integridad de las capas que componen la red son esenciales para nuestra ecología informacional. El código construye el entorno y modifica, junto con los otros reguladores, la arquitectura política de la red. El código controla la actividad que se da en los extremos periféricos de Internet, en el espacio de las aplicaciones de Internet. Por tanto, este código determina lo que las personas pueden y no pueden hacer. Siguiendo las analogías propuestas, el código puede ser visto como una especie de ley que decide sobre la arquitectura de Internet. Pero, cuando exclusivamente los intereses comerciales son los que determinan la arquitectura de los sistema nos encontramos frente a una traducción peligrosa donde la codificación es transformada en aquello que antes era la ley pública. De esta forma, estamos en presencia de una ley privada y de una privatización de la legislación-codificación pública. Por tanto, dedico el próximo capítulo a esta problemática y a auscultar las estrategias subvertoras utilizadas para diseñar, regular, gobernar, y en suma, conquistar silenciosamente el ciberespacio.

 

 

 

 

Capítulo 3

 

 

 

El laboratorio Creative Commons

y su arte regulativo

        

El análisis de las transformaciones actuales en el campo de las regulaciones me ubica finalmente en las capas superiores de Internet donde puede observarse claramente la emergencia de un nuevo arte regulativo. En este capítulo me concentro fundamentalmente en la clausura que se esta produciendo en la capa de contenidos de la red, aquello que llamo la tragedia de los bienes intangibles comunes de la mente. Me enfoco puntualmente en las nuevas organizaciones que, con fuertes intereses políticos, están emergiendo para formar parte del campo de las regulaciones. Estas pretenden regular el ciberespacio a través de codificaciones proactivas que construyen el ciberespacio mediante políticas alternativas. Comienzo el capítulo analizando algunas estrategias regulativas que ayudaron a mantener la apertura de la capa lógica en la década del 80 y hago hincapié en la emergencia de una corporación sin fines de lucro, una organización-neo-gubernamental, involucrada directamente en la regulación y gobierno de las capas lógica y de contenidos del ciberespacio. Me refiero, específicamente, al laboratorio Creative Commons que, a través del nuevo arte regulativo, protege el ambiente digital de los bienes intangibles de la mente.

 

A)    Las mediaciones técnico regulativas libres, abiertas y privadas

 

El espacio Internet, como he analizado siguiendo a Yochai Benkler (2001), está compuesto por tres capas superpuestas e independientes. La capa más baja, capa física o de infraestructura, es una capa limitada en función de su disponibilidad [82] . La capa física, siguiendo a Lessig (2001), tiene claramente delimitado quienes son dueños y el tipo de control que permite su sistema de administración. Para Lessig (2001) la creación de la propiedad privada, como institución, se relaciona con una forma regulativa de carácter distribuido que tiende al mejor aprovechamiento de algunos recursos. La propiedad privada, contrapuesta a la propiedad centralizada, es un sistema jurídico político que procura ordenar las relaciones socio-económicas. Para Lessig (2001) la propiedad privada es un sistema que mantiene un equilibrio entre el exclusivo control de individuos distribuidos (de diferentes tipos) y los fines del estado centralizado. Si bien este modelo “propietario” es evidente en la capa física de Internet, tanto en la capa del código como en la capa de contenidos, el control y la distribución sobre los recursos no está tan clara. En las capas superiores no están establecidos los criterios ni las consecuencias básicas que las diferentes formas de administración sobre las capas superiores de Internet pueden aparejar. Sin embargo, estas discusiones son vitales para la ecología informacional de nuestras sociedades dado que nos encontramos frente a un crecimiento exponencial de codificaciones privadas y tecnologías de control que pueden clausurar y restringir los espacios comunes en la red.

La capa del código, o capa lógica, tal como explica Lessig (2001) ha tenido un desarrollo y un gobierno completamente diferente a la capa física. Históricamente, la producción de software al igual que muchos proyectos que soportaron el desarrollo de Internet, estaban caracterizado por su apertura y transparencia. Mejor dicho, estaban caracterizados por la posibilidad de (re)producción que la misma habilitaba. Todos permitían, ‘como algo natural’, ver y manipular el código fuente de los sistemas. Cualquier persona o programador podía ver como el programa estaba diseñado, construido, donde fallaba o donde podía ser optimizado. Sin embargo, el diseño y desarrollo de software comenzó, a principios de la década del 80, a verse envuelto en un proceso estructural de clausura bajo arbitrarias y complejas barreras jurídico clásicas. El código que regulaba su producción comenzó a cambiar y diferentes reguladores comenzaron a mixturarse para lograr balancear su producción según los fuertes intereses en juego. Los intereses de las empresas y corporaciones, fundamentalmente norteamericanas, que comenzaban a desarrollar el software debían verse protegidos (o privilegiados) ante la futura competencia tanto en el mercado interno como en el mercado mundial.

Con el crecimiento de las primeras políticas conservadoras del gobierno de Ronald Regan en Estados Unidos de Norteamérica, estos modelos de negocios comenzaron clausurar la producción libre de software y esto  afectó seriamente la libertad de expresión que reinaba el diseño de software. El código que circulaba libremente entre las comunidades de programadores comenzaba a comodificarse, a volverse una mercancía, y a intercambiarse por dinero. Esta situación contravenía directamente el espíritu de la ética hacker en la que eran formados los mejores programadores en los laboratorios norteamericanos (Himanen: 2001; Williams; 2002). Código por dinero, según Sam Williams (2002), parecía ser el nuevo escenario en la producción del software. La clausura del código consumaba una apropiación privada de un capital que, en grandes partes, había sido desarrollado colectivamente por la convergencia y acumulación de técnicas muy antiguas de nuestra condición sociotécnica común [83] . Afortunadamente aparecieron algunas voces que resistieron el embate de los nuevos modelos de negocios propietarios que atentaban contra la diversidad cultural de nuestra condición sociotécnica. Richard M. Stallman emerge a principios de los 80 como el programador (filósofo) que plasma su arte a través de la programación del software (Lessig; 2002). Según las palabras del mismo Stallman (2002) su intención fue crear una nueva comunidad de intercambio y producción de software de acuerdo con una ética hacker de cooperación y libertad sobre la que Internet había podido desarrollarse como un espacio de innovación común.

Por mediados de la década 80, con el claro objetivo desarrollar un sistema operativo completo que no fuese UNIX [84] , pero también con el propósito de eliminar las restricciones sobre el copiado, redistribución, estudio y modificación de programas de computadoras, Richard M. Stallman lanzó el proyecto GNU [85] . Había que preservar, proteger y promover las libertades de ejecución, uso, estudio, copia, modificación y distribución de software. Para ello, Stallman creó también la Fundación para el Software Libre (Free Software Foundation) que tuvo como misión mantener la apertura del código fuente y la protección de algunas libertades esenciales que iban desde libertades individuales, pasando por las comunitarias, y llegando hasta las asociativas [86] . Stallman tomo sobre sus espaldas, como bien afirma Williams (2002), una gran decisión moral y emprendió una cruzada por el software libre, por la apertura y libertad del software. El movimiento compuesto por la FSF junto a otras iniciativas posteriores, también involucradas en la apertura y la libertad de las fuentes (Open Source Iniciative - OSI) [87] , han tomado a cargo la defensa de libertades fundamentales sobre la ejecución, estudio, adaptación, producción de trabajos derivados y distribución bajo ciertas condiciones del software.

Pero, ¿cómo garantizó la comunidad del software libre de Stallman algunas de estas libertades básicas en relación a la producción, copia, distribución y modificación de software? En este punto se evidencia la compleja articulación de estrategias basadas en los diferentes reguladores, y tal vez el primer antecedente fuerte de arte regulativo, que he analizado en los capítulos anteriores. Las corporaciones y empresas desarrolladoras de software utilizaban argumentos jurídicos anclados en la propiedad intelectual para frenar tanto la producción transparente de software como su copia, modificación y distribución. Richard M. Stallman descubrió, un tanto anacrónicamente, que a pesar de la clausura del código fuente todavía tenía posibilidades de controlar los usos del software común diseñado por las comunidades de programadores. En este sentido, Stallman junto a la comunidad de la cual era parte, desarrolló un instrumento jurídico -una licencia-, que creó las condiciones para que el movimiento de software libre pueda sostenerse en el tiempo. Con Stallman a la cabeza, en 1985 desarrollaron una licencia que tenía como objetivo frenar la transformación del código libre en código propietario. Específicamente, me refiero a la Licencia Publica General del proyecto GNU (GPL, por sus siglas en ingles = General Public License).

La GPL implicó la unión de diferentes codificaciones articuladas para un mismo fin. Como elemento insólito e innovador para la época, la licencia GPL, se constituyo en un verdadero hack [88] al sistema del copyright angloamericano. Inauguró, por 1985, la escritura de un nuevo programa lejano a la codificación digital, pero cercano a la regulación jurídica. Stallman llamó al complemento de su procesador de texto Emacs 15 con el nombre de Copyleft. Esta unión se transformó rápidamente en la piedra filosofal [89] de la comunidad de programadores y usuarios de software libre (y luego también, aunque con diferencias, para la escindida comunidad de código abierto [90] ). La solución que encontró Stallman ha servido para pensar modelos dentro del campo de las regulaciones en Internet. El mismo Linus Torvalds (1994), creador del corazón del sistema operativo LINUX, opina que la opción por la GPL fue una de las mejores decisiones de diseño que tomo en sus desarrollos. La GPL esta cuidadosamente pensada [91] para poder, una vez registrada la obra bajo el histórico copyright, limitar o gobernar las consecuencias futuras de la obra en manos de una comunidad de usuarios-productores manteniendo la libertad originaria. Las obras no son puestas bajo el dominio público, como generalmente se piensa, sino que se licencia bajo condiciones específicas. Los términos bajo los cuales la GPL gobierna los usos de la obra son flexibles y liberales, aunque licencia también tiene fuertes detractores que critican su radicalidad. Por un lado, encontramos fuertes defensores, puesto que se ha ganado fama de ser una licencia que promueve la libertad de expresión, de asociación y la solidaridad. Sin embargo, por el otro, se la acusa de parecerse más a una trampa, a un virus, puesto que genera pesadas cargas para los futuros desarrolladores de software [92] .

En concreto, las condiciones de la licencia habilitan prácticamente para todas las acciones que supuestamente el copyright protege y obliga a que las versiones y utilizaciones de los programas desarrollados tengan también el código fuente abierto para poder distribuirse bajo condiciones idénticas a las cuales el tomador del software lo recibió. Permite ejecutar, copiar, modificar y distribuir copias modificadas del software. La GPL especifica que cualquiera puede copiar el software, dejando la licencia asociada a la copia y el código del software siempre queda abierto transformándose estas en libertades inalienables (Stallman; 2002). Pero, ¿qué quiero indicar con estas reflexiones sobre la GLP? Lejos de discutir las bondades o perjuicios de una licencia en particular, quiero mostrar como a través de un dispositivo complejo -compuesto por partes jurídicas, usos y normas sociales de una cultura concreta, bajo condiciones específicas de mercado y, sobre todo, conteniendo partes de código de programación de las aplicaciones-, se conformó un dispositivo regulativo que todavía tiene fundamentales consecuencias para la cultura, economía y ecología informacional de nuestras sociedades. Salvo por la presencia –ineludible y muchas veces ficcional- de una normativa de orden público de base, o sea, aquella que soporta el concepto y funcionamiento de una licencia dentro del marco jurídico general, todos lo demás componentes de este dispositivo provienen de la esfera privada. Incluso, técnicamente hablando, la misma solución legal en forma de licencia proviene también de las estrategias del ámbito privado. Sin dudas, este no es un detalle menor.

Esta solución, proveniente de la esfera privada no comercial [93] , dio una salida transitoria a la problemática de la clausura de partes esenciales de la capa lógica de Internet. Quiero resaltar el proceso silencioso a través del cual –paulatinamente- una codificación compuesta de intereses privados no comerciales, fue transformándose en una alternativa para preservar el trabajo cooperativo común. Esta codificación heterogénea partió del ámbito privado y se deslizó hacia el ámbito público, no como posibilidad, sino como alternativa real, regulando a través del código y respaldándose en otros reguladores clásicos. ¿Cómo es que una instancia privada, no comercial, se transforma en una alternativa que penetra y defiende el espacio público-común? Las regulaciones públicas clásicas, como la sanción de leyes, pasan por momentos de mayor o menor permeabilidad a la voluntades e intereses privados. Pero, cuando las regulaciones públicas clásicas son inviables [94] , cuando las corporaciones del software, del entretenimiento y, en suma, cuando las regulaciones que resguardan el interés público están viciadas por intereses particulares comerciales, las codificaciones que parten del espíritu libre de los intereses privados, del fuero de los intereses indeterminados de todos y cada uno, se transforman en una vía de escape alternativa a los procesos de cierre y caída de la representación de las democracias occidentales.

A pesar de su valor, creo importante resaltar que la experiencia única y aislada de una licencia poco puede hacer frente al proceso de privatización en la producción tanto de leyes, como de códigos digitales. El proceso de privatización legal puede transformarse rápidamente en un proceso de privatización de las codificaciones, arquitecturas y finalmente, de las normas sociales dentro de la lógica del mercado asfixiante. Como he analizado, las tecnologías de control y los códigos privados pueden ser más efectivos en la regulación de la red que las leyes privatizadas. El peor de los escenarios posibles es aquel donde los códigos del espacio de las aplicaciones son cerrados, elaborados por corporaciones, bajo intereses exclusivamente comerciales, y con el respaldo de leyes privatizadas de los estados nación. ¿Que ocurre entonces con los intereses comunes, con el orden público común, cuando los códigos se producen exclusivamente bajo el signo de la protección de los intereses económicos de las corporaciones comerciales que diseñan el espacio Internet? ¿Serán lo intereses de las grande corporaciones a nivel global el nuevo orden público económico en la Red? Afortunadamente, las arquitecturas descentradas y soportadas por pares, habilitan a ciudadanos y redes ciudadanas -celosas de los derechos, garantías y libertades conquistados a través de luchas históricas- a que puedan todavía ser una de las instancias decisivas en el campo de las regulaciones.

A diferencia de las viciadas y no siempre eficientes codificaciones públicas legales, las nuevas codificaciones provenientes de las decisiones privadas de usuarios-ciudadanos-productores finales- tienen un carácter abierto a la optimización a través de su uso [95] . Acertadamente, James Boyle (2003) afirma que la GPL no resolvió las problemáticas de fondo en relación a algunas libertades y a la propiedad intelectual. A decir verdad, la misma licencia no tenía obligación de hacerlo. Sin embargo, es evidente que tanto la GPL como el movimiento de software libre, contribuyeron a resolver el problema de los incentivos individuales y comunitarios frente a la producción de software. A gran escala, tal vez sea cierto que la solución aplicada al software no es la mas conveniente para la totalidad de obras intelectuales, pero sin dudas dejó abierta la posibilidad de seguir pensando y optimizando nuevas soluciones regulativas basadas en un nuevo arte regulativo. Sin dudas, existe en la actualidad gran necesidad de crear regulaciones que permitan acercar intereses públicos-comunes con los intereses privados, pero por sobre todas las cosas, hace falta diseñar regulaciones abiertas que permitan la retroalimentación y la optimización dinámica a través de los usos finales de las redes que las soportan. Frente al nuevo arte regulativo emergente, las regulaciones abiertas son un gran desafío histórico al mismo tiempo que una gran necesidad.

 

B)    Las nuevas luchas por la propiedad (¿intelectual?)

 

Las problemáticas de la capa de contenidos requieren de varios pasos aclaratorios para ser analizados. Si bien el concepto de propiedad intelectual es relativamente nuevo, su utilización a nivel mundial data de varios siglos. El copyright, los derechos de autor, sus derechos conexos, y las patentes, entre otros, han sido tratados siempre como una especie de propiedad imaginaria, ficcional, aunque, su regulación no ha pasado nunca la barrera de la simple analogía con el concepto de propiedad sobre las cosas materiales. El concepto de propiedad funciona como una forma posible de ordenación, control y administración de cierto tipo de capitales, bienes o recursos materiales. La propiedad, como institución política, es una parte esencial del modo de producción y circulación de bienes materiales. Desafortunadamente, la ordenación de bienes inmateriales o intangibles comienzan, con poca inocencia, a ser tratados como un tipo de bienes sujetos al derecho de propiedad o dominio. Todo indica que será extremadamente difícil reformular y cambiar esta tendencia hacia la propiedad intelectual, puesto que estos derechos se ubican en las entrañas de la producción de riqueza del sistema capitalista en momentos en que este sistema concentra no solo la propiedad sobre bienes materiales, sino que pretende hacer extensiva su concentración y forma organizativa hacia bienes intangibles comunes. En este sentido, la solidificación de un nuevo modo de producción informacional a nivel global dependerá necesariamente de la regulación de las “propiedades intelectuales”. Estas discusiones sobre propiedad de los bienes intelectuales, sin lugar a dudas, tienen las más importantes consecuencias para la ecología informacional de la capa de contenidos de nuestras sociedades.

Si bien técnicamente (aunque también históricamente) los bienes inmateriales han estado fuera del régimen de la propiedad, actualmente existe una tendencia irrefrenable para traducirlos hacia el concepto de propiedad a secas, o sea, de sujetarlos a un régimen de dominio puro. Esta tendencia esta avalada, por un lado, por la producción diferencial de bienes y la circulación de capitales a nivel global, y por el otro, por la posibilidad cierta de control efectivo sobre estos bienes que hoy posibilitan las tecnologías de control en el ciberespacio. Esta tendencia indica la pretensión de regular la producción-protección de bienes inmateriales como un tipo de propiedad encastrada a los bienes materiales. La clásica interpretación del concepto de propiedad como una metáfora, cuando nos estamos refiriendo a los derechos de autor, está rápidamente desapareciendo en un triste y pesado sistema regulativo a nivel global. En caso de solidificarse esta tendencia, esta in-diferenciación entre los tipos de bienes activaría la ampliación de la característica más importante del dominio sobre los bienes intangibles de la mente: a saber, la exclusividad frente a terceros, o sea la posibilidad de excluir perfectamente a otros de los usos sobre bienes intelectuales o inmateriales. En este sentido, dos de las tres capas analizadas en la estructuración de Internet -la capa lógica, y fundamentalmente, la capa de contenidos- están comprometidas seriamente en estas tensiones a nivel global.

Los derechos de propiedad intelectual, y específicamente los derechos de autor han estado siempre en tensión con la tecnología disponible para la producción, copia y representación de las diversas obras. Esta es una tensión dinámica, aunque no exclusiva del campo de la protección de los derechos de autor. La tensión se establece entre los diferentes tipos de tecnologías [96] y el tipo de protección buscada. En general, debido a la complejidad, infoxicación y a los grandes intereses en juego, se desconocen las implicancias que los diferentes tipos de regulación sobre los derechos de autor puede acarrear para el futuro cultural de nuestros colectivos. Las leyes siempre han tratado de proteger a los autores, los editores y las industrias que sobre ellos se levantaban, pero el gradual avance tecnológico permitió, una y otra vez, que esta protección caiga o vaya paulatinamente resquebrajándose. En este sentido, la tensión entre las tecnologías y la protección de derechos de autor está atravesada por el costo de las reproducciones de las obras. Razones tecnológicas en cuanto a la posibilidad y razones económicas en cuanto rentabilidad configuran también la relación entre los sistemas de producción-protección. Estos puntos no pueden dejarse de lado al momento de repensar el sistema de protección-promoción de las obras culturales.

Esta tensión dinámica entre los alcances diferenciales de las tecnologías y la regulación de la producción-protección de obras culturales generó espacios para el intercambio, el desarrollo y la innovación. El control limitado sobre las obras, copias y formatos, puede generar ciertos espacios de libertad, diversidad, y la emergencia de algunos nuevos derechos. Esto fue, aparentemente, lo que ocurrió con la imprenta: las diferentes regulaciones para el caso de la tecnología imprenta, comenta Stallman (2001), recayeron sobre la figura del editor dado que ellos eran los que poseían las máquinas. Sin embargo, el control incompleto y limitado sobre la impresión habilitó determinados usos justos, necesarios y legítimos sobre las obras. Un control limitado de algunas instancias que por diferentes razones, tecnológicas o políticas, escapan a la ubicuidad del control es lo que termina favoreciendo el surgimiento de prácticas, normas sociales y derechos por los cuales la capacidad adaptable de lo social se cuela y genera ámbitos de innovación y libertad.

Estos espacios irregulares, dinámicos y productivos han sido muchas veces decididos políticamente, aunque la mayoría de las veces han formado parte de las innumerables consecuencias imprevistas del desarrollo tecnológico [97] . Actualmente, existe una fuerte tensión por la re-definición de conceptos que fueron fundamentales para la construcción del mundo moderno [98] . La diferencia entre aquello que pertenecía a los bienes materiales sujeto a la propiedad y aquello que pertenecía a los bienes intangibles dentro de un tipo diferente y especial de protección personal-patrimonial se encuentra cada vez más borrosa. La exclusividad parece ser cada vez más atributo de la protección de las obras culturales, cuando claramente este atributo caracterizaba preferentemente a la propiedad de las cosas materiales. Las nuevas tecnologías digitales de información y comunicación están borrando rápidamente los límites clásicos de la propiedad intelectual, sin embargo, todavía existen razones practicas, históricas, económicas y filosófico-epistemológicas por las que conviene mantener la separación entre estos bienes.

La propiedad da derecho exclusivo en relación al dominio, uso y explotación sobre una cosa material. Cuando compartimos bienes inmuebles o muebles automáticamente vemos reducida nuestro dominio sobre ellos. Las leyes protegen la propiedad mobiliaria e inmobiliaria con el fin de brindar al propietario seguridad frente a terceros al mismo momento que pretende generar incentivos para la explotación de los bienes materiales, puesto que nos encontramos frente a bienes escasos, agotables y consumibles. Por el contrario, los bienes intangibles e inmateriales se consideran históricamente una propiedad sui generis, puesto que se los ha considerado inagotables, inapropiables y no consumibles, bienes pertenecientes a una economía que desde hace siglos viene creciendo sin prisa pero sin pausa. Los bienes intangibles o inmateriales de la economía de las ideas siempre se han considerado una regulación cercana, pero esencialmente diferente que la de la regulación de las cosas materiales. Aunque alguien se apropie debida o indebidamente de ideas de otra persona, la idea en si misma no se ve afectada porque otros la sepan, no cambia ni disminuye su calidad. Quien la desarrolló o la tenía originariamente continua teniéndola sin ninguna merma en su calidad. Por lo tanto, las ideas nunca tuvieron obligación de ser excluyentes en el mismo sentido en que si lo fue y todavía lo es la propiedad que regula los bienes materiales. Esta misma diferenciación, incluso, puede aplicarse a muchas de las obras sobre la cual las ideas son expresadas. Esto es lo que ocurre actualmente en la era digital. Cometeríamos un grave y grosero error si pretendiéramos pensar el nuevo contexto digital a través de los viejos principios que gobernaron la producción y circulación de las obras culturales en el pasado.

En modo alguno esto significa que el estado no debe proveer alguna protección / regulación a los bienes intangibles del intelecto. A decir verdad, más que proteger estos bienes, el estado esta obligado a una tarea bastante diferente y muy necesaria. El estado esta obligado a establecer incentivos (políticos, sociales y económicos) que favorezcan la producción y circulación de las ideas para el desarrollo socio-cultural. La forma regulativa protectora-excluyente de los bienes intangibles es solo una de las formas en que (supuestamente) se incentiva a los creativos a que produzcan más obras que, directa e indirectamente, favorezcan el desarrollo socio-cultural de nuestras sociedades. Sin embargo, esta forma regulativa no es la única forma de establecer incentivos en la producción de bienes por esencia inagotables. Aquí encontramos uno los primeros y más importantes errores al tratar la temática de los derechos de autor a nivel regulativo. Es importante comprender que el fundamento de la existencia de los derechos de autor y del copyright es lograr concentrar la mayor cantidad de personas y recursos para dedicarlos a trabajos que no son desarrollados por la lógica del mercado comercial. Los derechos de autor y el copyright están dirigidos, más que a la protección los autores concretos, a favorecer e incentivar al conjunto de los usuarios finales donde se encuentran los nuevos creadores. Una protección excesiva de los creadores-artistas-autores y de sus obras ya creadas, genera una peligrosa merma en el material disponible para producir nuevas obras.

La equiparación de los dos tipos de bienes, materiales e inmateriales, puede traer resultados muy negativos para la ecología de los bienes inmateriales dentro de la capa de contenidos de Internet. La diferencia entre los dos tipos de bienes es fundamental cuando nos planteamos que tipo de control y que regulación queremos activar para incentivar su producción. Como bien afirma Lessig (2001), los bienes intangibles inmateriales, más que un control perfecto –como tiene la propiedad sobre bienes materiales-, requieren generar los incentivos suficientes para su producción. Esta diferencia en relación al control es esencial para evaluar las diferentes regulaciones que uno u otro régimen puede provocar en un mundo de ideas interconectadas. Las ideas que hasta ahora, según Lessig (1999-A), no eran ni excluyentes, ni disminuibles en función de sus poseedores, pueden cambiar su naturaleza y transformase en un sistema de protección similar al de la propiedad material.

Todo indica que esa es la tendencia a nivel mundial. Los plazos de protección de los derechos de autor han sido extendidos en el mismo momento en que los efectos prácticos de las regulaciones pasaron a brindar una cobertura instantánea y a-formal. A pesar de la naturaleza diferencial, la tendencia mundial erróneamente busca darle a los titulares y autores mayor posibilidad de exclusividad sobre la protección sobre sus obras [99] . En este sentido, para Siva Vaidhyanathan (2001) el copyright en el siglo XX a sufrido un período de extensión y desnaturalización. Paulatinamente, el copyright y los derechos de autor fueron perdiendo su verdadero sentido, su misión, su razón de ser. Han dejado hace tiempo de incentivar la creatividad, la ciencia y la democracia a través de un sistema liviano, y se han transformado en una pesada carga sobre las formas de creación de riqueza de las comunidades. Los actuales derechos de autor solo protegen obras ya creadas y de esta forma limitan las obras por crearse. Específicamente, según Siva Vaidhyanathan (2001), en la década del 90 la expansión de la protección de los derechos de autor olvidó el interés público general acompañando el proceso de erosión del espacio público.

A pesar de lo que comúnmente se cree, los derechos de “propiedad intelectual” lejos de estar en una etapa de crisis están en una etapa de cambios profundos que pueden volver su protección un sistema asfixiante. La protección de la propiedad intelectual, indica Lessig (2001), esta hoy mucho más cerca de gozar una protección más amplia que en épocas anteriores. Por un lado, persisten los (in)eficaces mitos en relación a los derechos de autor y las presiones abusivas de grandes corporaciones que se resisten a cambiar sus modelos de negocios en relación al cambio de paradigma de comunicación digital distribuida. Por el otro, el mayor empuje para el sostenimiento de los derechos de autor esta dado por el desarrollo de tecnologías de control. En un ciber-espacio donde proliferan las tecnologías y dispositivos de control y donde el código puede regular con mucha mayor efectividad que la ley, es dable excluir a otros incluso de algo tan intangible como los bienes inmateriales [100] .

Cuando la relación entre la tecnología, las artes, la producción cultural y la protección de los derechos de autor comienza a volverse confusa comienzan también a des-balancearse derechos hasta entonces fundamentales para la circulación de la cultura socio-política. Aquí la presencia de los diferentes reguladores es notoria e indica perfectamente cuales son las diferencias en la utilización de diferentes reguladores en el campo de las regulaciones. Como he desarrollado en el capítulo 1, cuando la ley regula una determinada situación deja espacios aprovechables para nuevos y singulares usos. Pero, ¿qué sucede cuando es el código y su irrefrenable tendencia al control (perfecto) el que regula la producción y circulación de los bienes intangibles? Lessig (1999-A) afirma que cuando la propiedad intelectual (en sentido genérico) está protegida por el código no hay nada que obligue a mantener el mismo equilibrio que mantenían las prácticas alrededor de la ley en el acceso a los bienes culturales. El balance entre aquello que era posible hacer, usar, copiar y aquello que era controlable cambia radicalmente con cada uno de los reguladores que podamos utilizar. Dice Lessig (1999) que nada obliga al propietario de los derechos de autor a conceder el derecho de uso justo y legítimo de su obra a los terceros (fair use, para la tradición Norteamericana).

En momentos en que aumentan la producción de tecnologías de control, de códigos por parte de la empresas y corporaciones comerciales, en momentos en que aumentan los plazos y las modalidades de protección legal y la privatización de leyes a favor de intereses particulares comerciales se vuelve alarmante, el control asfixiante que las arquitecturas pueden producir conforma uno de los mayores peligros a los que se enfrenta la capa de contenidos de Internet. El cercamiento de la capa de contenidos en Internet y la confusa, errónea y tendenciosa regulación legal de los derechos de autor, intentado la asimilación a la propiedad a nivel mundial, están generando según Boyle (2003) la segunda tragedia de los comunes. La misma esta caracterizada por una clausura (enclosure) [101] de la producción-distribución compartida de los contenidos en Internet. James Boyle (2003), define la tragedia como el cerramiento en las capas media y alta de Internet, o sea, las capas lógica y de contenido. Por un lado, la capa lógica enfrenta al modelo propietario en la producción de software y por el otro, la capa de contenidos, enfrenta la privatización y sobre-protección de los contenidos que circulan en la red. Nos encontramos en medio del aparentemente irreversible segundo movimiento de clausura (enclosure) de los bienes comunes intangibles de la mente.

Este es el punto de inflexión donde de un sistema de propiedad sui generis como el de la propiedad intelectual, se transforma en un sistema de protección de propiedad-dominio para favorecer un dominio absoluto e irreversible sobre bienes intangibles comunes. El peligro emerge una y otra vez al observar la extraña articulación entre el derecho, la política y el desarrollo de la tecnología. Esta articulación está generando un tipo de regulación tendiente a la irreversibilidad. Las nuevas formas de protección, a través de tecnologías de control, regulan en el mismo dominio que las leyes sobre derechos de autor pero, a diferencia de estas, no garantizan la existencia de espacios libres, ni de protección del uso público común de nuestro acervo cultural. Es allí donde el estado, incapaz de regular frente a los intereses de las grandes corporaciones cede parte de sus funciones a manos privadas que pueden y quieren regular el código. ¿Cómo afectará a la democracia el creciente control privatizado? La diversidad cultural es esencial para la buena constitución de sociedades democráticas.

Algunas arquitecturas de control que rápidamente se van desarrollando, el aumento de la selección informacional (Whitaker; 1999), la generación de micro-entornos o burbujas informacionales y la configuración de micro-mundos (Shapiro; 1999, Sunstein; 2003), están planteando divisiones tajantes entre sociedades abiertas y sociedades de clausura, entre mundos felices y mundos salvajemente reales. Ciertamente, no es conveniente para nuestras sociedades que la propiedad intelectual se convierta en una propiedad absoluta. Esta tendencia configuraría la apropiación indebida de un capital común, que pertenece desde hace siglos a la evolución humana. En otras palabras, es necesario pensar regulaciones que primero tengan en cuenta una protección común que favorezca los derechos ciudadanos básicos en momentos de un segundo enclosure en las capas lógicas y de contenidos de Internet. A raíz de estas tensiones, y a pesar de los pocos años que tienen estas problemáticas, es muy posible que nos encontremos frente a un nuevo movimiento social global en plena gestación, que se aboca a la protección de los contenidos libre y diversos, a la protección de una Internet que es común, que es comunitaria a nivel global. Desafortunadamente, no son muchos aún los laboratorio que están creando, modificando, y protegiendo la capa de contenidos del nuevo entorno digital. Sin embargo, a pesar de la escasez, he encontrado un caso que puede servir de ejemplo para el análisis de las principales tendencias que he descrito en este trabajo.

 

C)    Un laboratorio llamado Creative Commons

 

He dedicado partes del capítulo primero a mostrar como los laboratorios producen asociaciones y delegaciones que permiten el control a distancia y a través del tiempo. Estos laboratorios conforman una instancia política que ha sido el principal sostén en el desarrollo de Internet y configuran el espacio de trabajo de investigadores, artistas y, en modo creciente, de las nuevas formas emergentes de comunidades y corporaciones sin fines de lucro que todavía luchan por la defensa sus valores políticos. Como bien muestra Latour (1997) a una forma de producción de hechos naturalizados, a una usina de conocimiento, a una construcción sólida mediada tecnológicamente en el diseño de un entorno, no caben dudas que debe contraponérsele otro laboratorio como respuesta política. En este sentido, las luchas por la regulación de la capa de contenido de Internet esta dada por el diseño de un entorno que enlaza bienes intangibles de la mente y que paulatinamente va creando una inteligencia conectiva a nivel global. El laboratorio Creative Commons es parte de estas luchas político regulativas por el diseño del entorno digital que gobierna la ecología de los bienes intangibles de la mente.

Creative Commons [102] (CC) es uno de los proyectos mas ambiciosos e innovadores en relación al destino de los espacios comunes, el dominio público y los derechos de autor en la era de las redes electrónicas. Creative Commons es una corporación sin fines de lucro fundada en 2001 y lanzada en diciembre de 2002, con el apoyo del ‘Centro para el Dominio Público’ (Center for the Public Domain) de los Estados Unidos. CC es uno de los laboratorios montados para diseñar y gobernar el entorno participativo en la era de las redes electrónicas y su objetivo principal, aunque no este enunciado en estos términos, es convertirse en una instancia regulativa neo-gubernamental a nivel mundial. En este sentido, podemos definirlo como un contra-laboratorio que se enfrenta a los procesos e instituciones clásicas que generan las regulaciones que respaldan el gobierno de Internet. El laboratorio CC ejerce la política de una forma silenciosa y alternativa, intentando superar las escalas entre lo micro del diseño y su proyección del entorno socio-técnico, y el nivel macro donde se produce la utilización de la producción a nivel global. La estrategia de CC de tan inocente y básica, se vuelve invisible justo allí donde encuentra su fortaleza. Como he analizado en los capítulos anteriores, las estrategias silenciosas son las que logran construir un orden legitimo a través de la costumbre de lo que es.

Creative Commons está sustentado en el ethos de la interactividad creativa y funciona como un espacio abierto que busca constantemente formas alternativas para promover que los autores y creadores compartan su creación individual o colectiva, con el próximo, con el vecino y, de esta forma, con la comunidad. Existe en CC una fuerte y sólida confianza en la interactividad creativa, en el producto de lo público, en las fuentes abiertas y en las bases comunitarias para la construcción de cualquier sistema o sociedad. Creative Commons es claramente un proyecto inspirado en la Licencia Pública General (GPL) del proyecto GNU conducido por Richard Stallman. CC esta basada sobre conceptos sólidos: dominio público, apertura de contenidos, espacios comunes, conservación del capital intelectual de las comunidades, libertad en cabeza de los usuarios finales. CC emergió también como un ‘hack’ al sistema de protección abusiva de los derechos de autor. Aunque diferente del ‘hack’ histórico de la GPL-GNU, las licencias del proyecto Creative Commons no son diseñadas para software [103] , sino que son –preferentemente- diseñadas para otra clase de obras culturales. A saber, para sitios web, ilustraciones, videos, música, fotografías, literatura, software didáctico, etc. Esta corporación busca desarrollar, en principio, una aplicación en la Web para ayudar a los creativos, o bien, a poner sus obras directamente en el dominio público, o bien, a que puedan licenciarlas bajo términos más generosos y libres que los del histórico copyright anglo-americano. La idea es quebrar-aprovechar-mejorar los ya viejos y toscos términos del copyright, para ofrecer alternativas en la creación y difusión de obras.

CC estimula a los creadores a continuar creando obras y espacios comunes sobre los que otros creadores y desarrolladores ya están produciendo. Se los estimula para continuar creando sin las limitaciones que el enclosure de la capa de contenidos esta teniendo en manos de las legislaciones y de las codificaciones de las corporaciones que median la producción cultural. La corporación CC pretende aumentar la cantidad y la calidad de los trabajos en la red, pero también transformar el licenciamiento –privado- de estos trabajos creativos en una tarea sencilla para el público general. A pesar de que Creative Commons trabaja con licencias y protección de obras, es dable aclarar que no es una firma legal y tampoco provee servicios legales. Procura ayudar a los interesados a intercambiar obras y trabajos de una manera sencilla, dinámica y segura. La idea de Creative Commons es contribuir a la creación de un espacio que promueva, facilite y garantice el intercambio colectivo de obras y trabajos de artistas, cientistas y diferentes desarrolladores, como forma de proteger una cultura diversa, de libre intercambio y que defienda la libertad de expresión. Desean, en suma, promover el intercambio de obras producidas individual o colectivamente, para que estas circulen como una producción común y generen los incentivos para aumentar las obras disponibles en el dominio público o en el dominio común.

El objetivo de los constructores de Creative Commons es habilitar a los usuarios-creativos a usar aplicaciones de búsqueda online para encontrar, por ejemplo, fotografías de libre circulación, videos, música, etc, bajo la sola condición que el creador original esté debidamente acreditado, o sea bajo la condición que se reconozca su autoría. Por tanto, CC no solo quiere aumentar el material crudo de fuente online, sino que también aspira a hacer que ese material sea libre y sencillo de intercambiar a través de varios sitios Web de contenidos comunes (como pueden ser Common Content o Internet Archive) [104] y de un metadata (metadatos) que clasifica y ordena dichos contenidos. Este sistema describe e identifica, mediante un motor de búsqueda, las licencias de cada trabajo creativo, permitiendo asociar en forma automática cada obra creativa con el dominio público, o bien con el tipo de licencia seleccionada entre una variedad de opciones.

Para la construcción del espacio común de intercambio, los diseñadores de Creative Commons establecieron una estructura de licencias compuestas de tres niveles. El primer nivel, esta basado en la confianza que los diseñadores de Creative Commons han depositado en un tipo de intercambio de materiales sencillo y directo que permite a los usuarios finales gobernar los usos habilitando o deshabilitando permisos a través de las licencias. Este nivel inicial esta compuesto por un acuerdo o título común (Common Deed), procesable y legible fácilmente por los actores-humanos ubicados como usuarios finales. El acuerdo común esta escrito en un lenguaje plano y simple, acompañado con íconos y explicaciones multimediales. El segundo nivel, ya mas complejo y técnico, es el nivel perteneciente al código legal (Legal Code), donde encontramos las licencias legales propiamente dichas, las que son procesables y legible por actores-humanos capacitados en derecho, o sea abogados. En este nivel aparecen los derechos, permisos de uso y obligaciones sobre la obra, los que se hallan expresados técnicamente en el código legal de las licencias. En el tercer y último nivel, encontramos la instancia del código digital (Digital Code) que permite la creación de un metadata. Este código solo es procesable por actantes-no-humanos, o sea por máquinas que procesan datos en la red. Creado por técnicos en código de programación, este tercer nivel es fundamental tanto para los buscadores como para otras aplicaciones que intenten dar con las obras y sus condiciones de uso.

¿Cómo es que apareció la necesidad de crear un laboratorio como CC? Como he analizado en el apartado anterior, las diferentes reformas de la legislación en los Estados Unidos de Norteamérica, aunque la tendencia esta dándose a nivel mundial, ha dado como resultado una sujeción a la ley de copyright “por defecto”, o sea que, aunque no se diga nada al respecto, las obras desde su nacimiento se encuentran protegidas por la legislación sin requerirse ningún tipo de formas o registración al respecto. Este mecanismo, como bien aclara Lessig (2001), ha restado la posibilidad a los autores-creadores para que decidan sobre el futuro de su obra y ha contribuido a cerrar aún más la capa de contenidos de la red. En este sentido, el argumento de CC es que la lectura en tres niveles que posibilitan sus licencias, pero fundamentalmente gracias al metadata y al código legal de las licencias, eliminará las restricciones actuales en materia del copyright y promoverá la creatividad mediante un fluido intercambio de obras bajo arquitecturas par a par. De esta forma, las obras podrán ser copiadas, distribuidas o experimentadas bajo condiciones precisas usando este espacio de intercambio como laboratorio de creación común. Sin dudas, CC es un emergente de las arquitecturas par a par y del libre intercambio de información que el principio E2E legó a Internet desde la arquitectura originaria [105] .

 

D)    Some Rights Reserved (Algunos Derecho Reservados)

 

Una correcta regulación sobre los trabajos de artistas, inventores y demás creativos es una de las mejores vías para incentivar la creatividad, las artes y la ciencia. Para ello, es fundamental, por un lado, conseguir un aumento significativo de las obras del dominio público y, por el otro, lograr una circulación libre y abundante de obras. En momentos en que la capa de contenidos tiende a cerrarse, lo que esta en juego es el espacio público común como reservorio de la cultura en las diferentes sociedades a nivel mundial. Si solo los actores comerciales están interesados en desarrollar códigos digitales, tecnologías de control y regulaciones clásicas (privatizadas), los intereses públicos-comunes pueden verse seriamente afectados. Este parece ser el caso de Internet frente a un nuevo enclosure en la capa de contenidos. Como antes he analizado, CC pretende diseñar y desarrollar un dispositivo por el cual, de una manera sencilla, los autores y creadores puedan decidir si quieren o no reservarse ‘todos’, ‘algunos’ o ‘ninguno’ de los derechos que lo vinculan a su obra. Esta es una buena forma de devolver la libertad a los verdaderos productores de obras y generar incentivos para su creación.

CC posee varios proyectos en marcha y otros incubándose. El proyecto principal produjo las licencias privadas y gratuitas por las que se deja en manos de los creadores, en su rol de verdaderos titulares del ejercicio de sus derechos, parte de los derechos que lo vinculan con su obra. Las licencias establecen las limitaciones y permisos de uso, copia y distribución que los autores aceptan sobre sus obras. CC desarrolló cuatro licencias combinables y graduales que morigeran los efectos del copyright por defecto. Si la estructura del copyright se basa en la genérica frase ‘All Rights Reserved’ (‘Todos los Derechos Reservados’), CC quiere ayudar a los titulares de este copyright a enviar un mensaje diferente con mayor especificidad. Creative Commons ofrece a los creadores la posibilidad de decir ‘Some Rights Reserved’ (‘Algunos Derechos Reservados’). La nueva narrativa es, claramente, más heterogénea, específica y libertaria que la primera. Finalmente, la última de las narrativas es aquella declaración que subvierte el sistema imperante por defecto en la legislación norteamericana. CC ofrece también una importante ayuda a los creadores que directamente prefieran dedicar su trabajo por entero a enriquecer el dominio público. CC ayudará a que los titulares puedan decir ‘No Rights Reserved’ (‘Sin Derechos Reservados’) orientándolos, por defecto, al dominio público.

Estas narrativas organizan un sistema de protección e intercambio que se construye por encima del copyright. Intentan balancear los desajustados intereses público-comunes con los intereses privados de cada uno de los creadores. Estas licencias permiten, en parte, desligarnos de las violentas y arbitrarias condiciones que los modelos de negocios de los grandes intermediarios de la industria cultural imponen. En este sentido, las licencias CC en ningún caso significan la entrega o cesión completa de los derechos de autor. Al igual que la licencia de GPL, solo algunos derechos y algunas obligaciones quedan activos. Mejor dicho, las licencias significan la reserva de facultades y el otorgamiento a los usuarios finales de algunos derechos bajo ciertas condiciones específicas. Para todo lo que las licencias no habilitan, los usuarios deberán solicitar permiso por escrito al licenciante. Las diferentes licencias ayudan a encontrar las preferencias para un mejor intercambio de las obras bajo estándares comunes. Las licencias de CC no mencionan leyes, estatutos de ningún país en particular o contenidos de ninguna clase de cláusula de opción legal específica [106] y las mismas son irrevocables y se validez universal.

El menú de licencias que CC ofrece hasta el momento esta compuesto por 4 licencias básicas combinables en 11 opciones [107] . A decir verdad, el numero de licencias y proyectos esta creciendo a pasos agigantados. Las preguntas y las opciones de respuesta al momento de la selección de licencias están ordenadas jerárquicamente en el siguiente orden: 1) ¿Requiere usted atribución?; Si / No; 2) ¿Permite usos comerciales de su obra?; Si / No; 3) ¿Permite modificaciones de su obra?; Si / Si, con trabajos derivados / No. El siguiente cuadro contiene las cuatro licencias básicas:

 

“Attribution: The licensor permits others to copy, distribute, display, and perform the work. In return, licensees must give the original author credit.”

“Atribución: El licenciante permite a otros copiar, distribuir, exhibir y ejecutar la obra. A cambio, los licenciatarios deben dar el crédito al autor original.” (Se permiten trabajos derivados y usos comerciales).

 

 

nc

“Noncommercial: The licensor permits others to copy, distribute, display, and perform the work. In return, licensees may not use the work for commercial purposes -- unless they get the licensor's permission.”

“No comercial: El licenciante permite a otros copiar, distribuir, exhibir y ejecutar la obra. A cambio, los licenciatarios no pueden usar la obra con fines comerciales -- a menos que consigan el permiso del licenciante.”

nd

“No Derivative Works: The licensor permits others to copy, distribute, display and perform only unaltered copies of the work -- not derivative works based on it.”

“Sin Trabajos Derivados: El licenciante permite a otros copiar, distribuir, exhibir y ejecutar solo copias inalteradas de la obra – no trabajos derivados basados en este.”

sa

“Share Alike: The licensor permits others to distribute derivative works only under a license identical to the one that governs the licensor's work.”

“Compartir en Idénticas Condiciones: El licenciante permite a otros distribuir trabajos derivados solo bajo una licencia idéntica a la que gobierna su obra licenciada.”

 

El cierre de la capa de contenidos esta apoyada en un proceso complejo que evidencia como, a nivel mundial, el plazo de protección de los derechos de autor viene progresivamente aumentando sin razones valederas que lo justifiquen. La verdadera batalla está librándose en contra de una tendencia a reavivar los privilegios relativos a la propiedad intelectual que caracterizaron mas al medioevo que a la modernidad. Como bien ha descrito Lawrence Lessig (1999-A), el ciberespacio posee una extraña naturaleza, o mejor dicho, es poseedor de muchas naturalezas concomitantes. Por lo tanto, como afirma Latour, no se requiere de un análisis esencialista-naturalista -tan común en la construcción filosófico-jurídica de la modernidad- para tomar las decisiones de diseño y construcción del entorno digital. Por ello, a su estrategia inicial de licencias privadas, el laboratorio CC pretende sumar varias otras soluciones. Si las licencias de CC intentan continuar el ‘hack’ comenzado con la GPL, los otros proyectos de CC intentan directamente quebrar la lógica temporo-espacial que dominó el derecho moderno y las formas clásicas de regulación de los últimos siglos.

Esta parece ser la idea básica de los tres proyectos que se están incubando en el laboratorio CC. El primero de los proyectos, llamado ‘Proyecto de Conservación’ tiene por objeto la conservación de partes esenciales del patrimonio cultural. Pretende salvar del cerramiento de la capa lógica y de contenidos de la Internet algunas obras fundamentales para la diversidad cultural. De la misma forma que entendemos la urgente necesidad de preservar los patrimonios naturales a nivel mundial, nos vemos obligados a conservar los diferentes patrimonios culturales y la diversidad de las diferentes regiones a nivel global. Esto puede entenderse como un nuevo ambientalismo digital que esta conformándose como un movimiento global. Los creadores de CC entienden que hay que conservar y promover algunas obras en el dominio público con el fin de protegerlas de la tendencia asfixiante y excluyente donde las grandes corporaciones pretenden volver propiedad-privada el régimen de propiedad intelectual. Este proyecto aparece como una de las vías posibles para desarrollar un rico repositorio de trabajos de alta calidad dentro de una variedad de medios.

El segundo de los proyectos, llamado ‘Copyright de los Fundadores’, intenta quebrar la lógica temporal -lineal y progresiva- del derecho moderno. Una de las formas de recuperar el capital común, la cultura de la libertad y la creatividad es establecer plazos de protección de obras sujetos a una limitación temporal realista. Este proyecto permite auto-limitar temporalmente la protección que el estado dio a los titulares del copyright. El proyecto procura habilitar a los creadores a dedicar, dentro de un plazo razonable, sus trabajos al dominio público. A diferencia de la extensión y complejidad actual de la legislación Norteamericana (70 años) [108] el proyecto pretende establecer el término de protección en 14 años + 14 años (de renovación opcional). Este fue el plazo de protección que el primer congreso de los Estados Unidos estableció en 1790 para la protección de las obras intelectuales. CC quiere contribuir a restablecer el balance que esos plazos establecían, para evitar la tendencia de extender los plazos de protección de una forma abusiva y desproporcionada. Este proyecto apunta directamente a quebrar la temporalidad del derecho como regulador clásico.

El tercero de los proyecto apunta a quebrar la otra característica del derecho moderno. Intenta superar la lógica y la delimitación espacial que el derecho moderno construyó. Como he analizado en el capítulo primero, el derecho cierra operacionalmente su funcionamiento a través de las fronteras del estado nación. Las competencias y la soberanía aún dependen de estos límites cada vez más borrosos. El proyecto ‘International Commons’ (IC) es un apéndice del proyecto mayor de licencias de CC que tiene por objeto delinear y eventualmente adoptar licencias específicas para otros países a nivel mundial. El proyecto procura la traducción (tanto legal, como literal) de la parte del código legal a las legislaciones locales, dejando intactos, tanto el acuerdo común, como el código digital original del proyecto [109] . Estos tres proyectos, sumados a las licencias de distribución conforman las ideas iniciales de un proyecto ambicioso como es CC. Aunque, a decir verdad, los proyectos se sustentan en la ultima de las partes a analizar. La vedette actual del campo de las regulaciones, tal como fuimos analizando a lo largo de este trabajo, es el metadata de CC y la codificación que gobernará la arquitectura que soporta el intercambio de obras.

 

E) Regulando a través del código

 

Hace más de una década que los derechos sobre bienes intangibles están siendo gobernados por las tecnologías de control y las mediaciones técnico regulativas que fuimos describiendo en el presente trabajo. Ha quedado claro que las decisiones que debemos tomar frente a las arquitecturas y a las diferentes formas de codificación de nuestro espacio común, son esenciales para el ambientalismo digital, la diversidad cultural y la democracia en nuestras sociedades. Los dispositivos que permiten tomar decisiones y llevar adelante programas y metas, no solo a los actores-humanos, sino fundamentalmente a los actantes-no-humanos, son un hecho muy concreto con el advenimiento de las tecnologías digitales que componen el ciberespacio. La arquitectura que va a sostener la comunicación entre actores-humanos, máquinas, híbridos, computadoras, o directamente, redes de actantes-no-humanos, según las diferentes gradaciones de control que habiliten, determinarán la ecología de la capa lógica y, particularmente, de la capa de contenidos en el ciberespacio. El modelo de licencias de CC, como un típico caso de arte regulativo, articula e incluye tres niveles diferentes. Dos de ellos ya los he analizado en los anteriores apartados y, por tanto, en el presente apartado me aboco a describir el tercer y ultimo nivel, compuesto por el metadata y el código digital legible por actantes-no-humanos.

Al momento de elegir una licencia dentro de CC, según preferencias, necesidades y conveniencias, estamos también llevándonos una etiqueta que forma parte de un sistema complejo de tratamiento de documentos que propone CC para ayudar en la búsqueda y difusión de las obras. Al momento de elegir una licencia CC, además del acuerdo común y de las licencias jurídicas (o código legal, bajo el cual establecemos nuestras condiciones de uso y distribución), el sitio nos provee de un código digital. Esta codificación por sus alcances promueve la utilización de un metadata que sirve para la distribución y búsqueda de contenidos. Un metadata es una forma de clasificar y distribuir información nacida principalmente de la utilización de aplicaciones P2P. El metadata ofrece, fundamentalmente, la posibilidad de utilizar un motor de búsqueda de licenciamientos bajo rubros preestablecidos: autor, título, tamaño, formato, lenguaje, licencia. El concepto de metadata esta implicando que existe información trabajando o funcionando sobre otra información [110] . En este sentido, el tercer nivel de la codificación de las licencias de CC se conoce y sintetiza bajo concepto amplio de web semántica.

Cuando se selecciona una licencia para una obra, o bien cuando ofrecemos nuestro trabajo al dominio público, según las opciones, el sitio de CC ofrece una etiqueta de HTML [111] para que sea incorporada en la página web donde se alojará el material licenciado. La clave para comprender el nivel de la codificación digital está en que este procedimiento también nos da un RDF [112] para que el metadata pueda funcionar correctamente. El RDF es un sistema de codificación de datos sobre datos que se usa para proyectos en los que se quiera arribar a la construcción de una web semántica. La web semántica (WS) puede entenderse como unos de los más ambiciosos proyectos colaborativos que ya Tim Berners Lee (1999) se planteó al desarrollar el World Wide Web [113] . Para las búsquedas en la web se utilizan diferentes identificadores que la WS procura obtener y relacionar de una forma aún más inteligente a como se venía haciendo hasta el momento. La WS es una representación de datos dentro del World Wide Web que busca la perfecta y no-ambigua identificación de contenidos para que los actores-humanos y los actantes-no-humanos puedan trabajar cooperativamente de una forma precisa.

La WS se basa en los RDF que integran una variedad de aplicaciones que usan XML [114] para funciones de sintaxis y URI [115] para funciones de designación. La estructura básica del RDF es bastante simple y esta compuesta de tres partes: a) un sujeto: algo a identificar según su URL [116] ; b) el predicado: el creador de la obra o el título de la misma, también identificables por una URL; c) el objeto: el valor asignado a este tipo de metadata. Estos tres estamentos juntos conforman el RDF, los que son expresados en un lenguaje llamado RDF/XML. Por tanto, la estructuración de los archivos de metadatos de CC posee dos partes principales: a) una descripción de la obra y; b) una descripción de la licencia que gobernará la parte jurídica de la misma. Esta es la información relevante para la codificación y funcionamiento del sistema. Ahora bien, el metadata de CC puede estar inserto dentro de varios formatos, entre los cuales se encuentran el HTML, el RSS [117] , el Estándar para compresión de Audio Digital, MP3 o bien el SMIL [118] . También encontramos proyectos que intentan etiquetar contenidos que no están solo en la Web. En este sentido, existen proyectos para alcanzar rápidamente nuevos formatos: video, música, imágenes.

Esta es otra de las razones por la que Creative Commons esta buscando alternativas de promoción, aliento de intercambio de obras y reutilización de materiales creativos a nivel mundial. Sin dudas, la web semántica funcionará mejor cuando una suficiente cantidad de material de metadatos, legible por máquinas, este disponible en la web y los desarrolladores puedan crear y mejorar las herramientas de búsqueda e identificación. De esta forma, el RDF dará la posibilidad de generar mejores y más potentes motores de búsqueda alentando a los creativos a intercambiar sus trabajos bajo licencias abiertas. Estos lenguajes más que legibles por actores-humanos, son (de)codificables y procesables por actantes-no-humanos, aunque todavía su código fuente es programable en parte esenciales por actores-humanos. Como instancias de identificación éstas son también instancias de control a través de las cuales se desarrollan tecnologías de control. En este sentido, el código que regula esta arquitectura abierta, transparente y flexible de intercambio es una instancia de gobierno compuesta por la convergencia de los diferentes reguladores analizados.

 

F)     Codificaciones privadas y codificaciones públicas

 

La pregunta final que debemos desentrañar es como esta estrategia surgida del laboratorio de una organización-neo-gubernamental puede comenzar a conquistar silenciosamente el campo de las regulaciones. La respuesta es evidente, aunque un tanto incierta por ser una respuesta de final abierto. Nadie sabe si efectivamente el laboratorio CC será efectivo para regular los derechos de autor a nivel global, pues esto será decidido por los usuarios finales que hagan uso y aprovechen las licencias. A un año y algunos meses de su lanzamiento, CC tenía solicitadas más de un 1.400.000 licencias. Lo cierto es que el laboratorio CC esta abierto para continuar este camino político alternativo que lo enfrenta directamente a la estructuración del campo de las regulaciones clásico. Al igual que fue decisiva la apertura y transparencia de la arquitectura originaria de Internet, la apertura y transparencia que hoy posee el proyecto CC será decisiva para su futuro. El laboratorio CC ha logrado dar el primer paso en el diseño y codificación de un entono, pero resta la utilización que los usuarios hagan de este espacio y la capacidad que tenga CC para optimizar y retro-alimentar su experiencia dentro de una arquitectura flexible. Imitando la configuración de una arquitectura originaria de Internet, CC ya ha dejado espacios libres para la circulación de ideas que mejoren y optimicen sus desarrollos en las capas lógicas y fundamentalmente de contenidos de Internet.

En este punto es necesario volver a cuestionar estos desarrollos con algunas preguntas. Imagine el lector que Creative Commons fracasa en su intento regulativo y que, como suele ocurrir con muchos proyectos en Internet, sea borrado del campo de las regulaciones en Internet. Cierto es que cualquiera puede olvidar en una fracción de segundos que es y como esta organizado Creative Commons, quienes trabajan, el contenido de las licencias, el logotipo, o la misma marca. Sin embargo, ¿pueden los lectores que han llegado hasta esta instancia de mi análisis olvidar la idea que subyace a Creative Commons? ¿Puede el lector olvidar como el laboratorio CC intenta gobernar una de las problemáticas más conflictivas en momentos de un nuevo enclosure en la capa de contenidos de Internet? ¿Podemos olvidar el diseño de su estrategia basada en un nuevo arte regulativo? Es obvio que no me interesó Creative Commons como corporación, sino Creative Commons como un nuevo tipo emergente de organización-neo-gubernamental que intenta involucrarse, a través de su laboratorio de mediaciones técnico regulativas, en el campo de las regulaciones a través de estrategias innovadoras que articulan el nuevo arte regulativo para diseñar proactivamente el entorno común.

Las regulaciones que efectivamente sirven están ancladas en la oscura conquista del espacio, están fundadas en una forma regulativa que va desde el diseño de las arquitecturas, pasando por los códigos, hasta las opciones políticas que se ubican en la cotidianeidad práctica de los usuarios finales, que hacen uso del regulador normas sociales e intentan captar la inteligencia distribuida y silenciosa que caracteriza nuestro entramado socio-técnico. En este sentido, según Raymond (2001) el éxito de GNU/LINUX ha estado en que muchos ojos, no solo ven más que dos, sino que pueden resolver y superar la complejidad: muchos ojos resuelven la complejidad. El laboratorio Creative Commons, más bazar que catedral, es entonces un espacio de trabajo colaborativo, compartido, abierto, que brinda a los usuarios la libertad de elegir y re-elegir optimizando sus rutinas. En todo momento, es una invitación a compartir, a asociarse, a crear y a superar la barreras clásicas en el campo de las regulaciones. Con buen criterio, Yochai Benkler, asegura que Internet es un espacio construido bajo tecnologías par a par, bajo el principio E2E, bajo tecnologías que permiten construir espacios compartidos, en donde la inteligencia es aportada, más que por núcleos centrales inteligentes, por los usuarios finales. Miremos nuevamente la historia de Internet, su arquitectura, sus lecciones, la experiencia organizativa que plantea un caso como el del GNU/LINUX, o directamente tomemos el caso de las aplicaciones par a par que se han vuelto difíciles de bloquear gracias a la facilidad con que, hasta ahora, pueden resolver las barreras e inconvenientes legales a través de alternativas desde las arquitecturas y el código.

La estrategia de CC ha sido tan extraordinaria que, de tan evidente, se haya oculta en sus mismas bases. No combaten las leyes, sino que las crean mediante un nuevo lenguaje. No combaten las costumbres, las crean, y allí justamente, su estrategia es silenciosa y se instala por su propio peso. No reaccionan en contra de las arquitecturas y de las tecnologías de control, solo construyen otras, respetuosas de los derechos básicos de un colectivo democrático. No están en contra del mercado, intentan salvarlo de su cierre y del colapso final de un capitalismo asfixiante. Cuando algo esta ya plasmado en el orden social, es ya una realidad tan profunda que, la mayoría de las veces, se vuelve complejo poder modificarla, conducirla, disciplinarla, en suma, regularla. Creative Commons es un laboratorio, una instancia política subvertora, y sobre todo, una instancia de codificación privada que sirve de modelo a las futuras codificaciones públicas. CC quiere mostrar como es que las codificaciones públicas deben funcionar, aunque también pretenden más que eso. Pretenden ser los constructores de esas codificaciones públicas futuras. Sin dudas, este es su objetivo más evidente, pero a su vez el objetivo jamás enunciado. La silenciosa conquista del ciberespacio recorre los laboratorios y CC, como una experiencia reciente de diseño de entornos a través del nuevo arte regulativo, no ha sido la excepción a esta regla.

Creative Commons es la historia de una historia ambiciosa, de un laboratorio que supera las barreras entre lo micro y lo macro. Es uno de los mejores ejemplos de metástasis, de invasión, de creación de un laboratorio para construir alternativas para la conservación y apertura de las diferentes capas de Internet. CC es también es un buen ejemplo de cautela ante la proliferación y venta ambulante de control por parte corporaciones comerciales y estados nación alrededor del mundo. Las regulaciones, como dispositivos polivalentes, son piezas esenciales del diseño de nuestro entorno sociotécnico, aunque, hasta el momento, solo las regulaciones privadas no comerciales, nacidas de una cultura de la libertad, muestran –afortunadamente- una vitalidad que no se encuentra fácilmente ni en las leyes, ni en el mercado, ni en el diseño de la tecnología por parte de las corporaciones comerciales. La opción estratégica de CC es sin dudas múltiple, abierta y heterogénea. Se hace fuerte justo allí donde deja de ser visible. Por ello, el secreto de las nuevas regulaciones, sin dudas el motivo de mi trabajo, la razón oculta en estas líneas, y tal vez, el paradójico silencio de lo que está explícito, es la emergencia de una nueva forma regulativa proactiva ligada a la oscura conquista de los laboratorios, que crea y regula los espacios y las conductas a través del diseño de aquello que confusamente llamamos tecnología. El nuevo arte regulativo ha llegado para quedarse, las reglas han cambiado y este es solo el comienzo de profundas modificaciones en la arquitectura política de nuestras sociedades.

 

 

 

 

Conclusiones:

 

 

 

Las reglas han cambiado

y este es solo el comienzo

 

 

Finalizo este sinuoso itinerario con diez conclusiones principales y algunas reflexiones finales que contienen las líneas más importantes sobre los resultados de la exploración. Espero que ellas me permitan, y le permitan también a los lectores, pensar nuevas alternativas político regulativas para nuestro futuro socio-cultural. Ha quedado claro que las reglas que conducen la producción regulativa han cambiado radicalmente en estos últimos años. El trabajo ha descrito partes de este cambio de paradigma, las regulaciones, su campo de acción, los reguladores en juego, las tendencias actuales en el nuevo arte regulativo, y las especiales condiciones estructurales del ciberespacio. Finalmente, he explorado las especiales formas y condiciones de producción de las nuevas codificaciones digitales, las redes de actores involucrados y las posibles soluciones a problemas de cierre de las capas superiores que componen el ciberespacio. Ha quedado claro también que este nuevo arte es solo el comienzo de cambios más profundos en la arquitectura socio-política de nuestras sociedades. El campo de las regulaciones y sus técnicas tienen una importancia vital para nuestro ambientalismo digital, puesto que el nuevo arte regulativo decide el futuro inmediato y la ecología de las redes electrónicas. Tanto para las regiones desarrolladas como para las regiones menos desarrolladas, urge auscultar el campo de las regulaciones e intentar formar parte de él mediante el nuevo arte regulativo emergente.

Sabemos que la tarea no es fácil. No todos conocen, y mucho menos, pueden implementar el nuevo arte regulativo analizado. Esta situación diferencial tiende a generar brechas de gobernabilidad cada vez más amplias entre las regiones a nivel global. El campo de las regulaciones en Internet posee un doble peligro. Por un lado, la reducida cantidad de regiones, y dentro de las regiones, la escasez de redes de actores-humanos que realmente están capacitados para lograr delegaciones con actantes-no-humanos que generen códigos y estrategias para diseñar el ciberespacio de forma abierta y transparente. Solo quienes estén en condiciones de generar códigos para la red, y logren articularlos con los otros reguladores disponibles, podrán acceder a los niveles superiores de este nuevo tipo de gobierno de los espacios comunes. Para el resto, la regulación se transformará en una instancia prohibitiva que deberá ser importada desde donde se produce. Por otro lado, el gran peligro que azota al campo de las regulaciones en Internet es que los laboratorios y contra-laboratorios diseñen y retroalimenten un entorno que habilite un control centralizado, perfecto y asfixiante a través de la producción de códigos cerrados. Esta amenaza es muy cierta frente a la proliferación de tecnologías de control. Estas, con el apoyo de las regulaciones jurídico clásicas, pueden modificar la apertura y libertad que permitió el desarrollo de Internet como un espacio de libertad e innovación.

Las conclusiones finales de un trabajo exploratorio deben necesariamente retomar la modestia con la que comencé el trabajo. Esta modestia es fundamental para que este trabajo pueda ser continuado en futuros análisis, para que pueda ser retomado por otros investigadores, por otros profesionales, que se aboquen a este complejo campo. Por tanto, estas reflexiones finales no deben entenderse como conclusiones definitorias o cerradas. Seguramente, con el correr de los años, estas ideas iniciales quedarán obsoletas y deberán ser optimizadas. Así lo espero, puesto que estas reflexiones finales deben necesariamente superarse con nuevos interrogantes y desafíos. Sin embargo, entiendo estas ideas finales como una guía sobre la cual debemos construir las regulaciones futuras en un campo incierto, plagado de tensiones y gobernado por técnicas que contienen el futuro inmediato de nuestra condición sociotécnica. Estoy convencido que estas conclusiones contienen las líneas rectoras y los puntos salientes de las luchas actuales que procuran conseguir sociedades abiertas y defender la cultura de la libertad que todavía puede observarse en partes importantes del ciberespacio. Doy lugar a las conclusiones:

I) Las infinitas regulaciones con las que convivimos diariamente conforman una parte vital para el funcionamiento de nuestras sociedades. Aunque las perspectivas clásicas sobre las regulaciones no puedan encontrar sus profundas raíces, las mismas alcanzan la fibra íntima de nuestro entramado social e implican siempre opciones tanto políticas como técnicas. Para observar su composición heterogénea, las regulaciones deben ser analizadas como mediaciones técnico regulativas. En otras palabras, deben observarse como dispositivos políticos provenientes de diferentes tiempos y espacios, compuestos por redes heterogéneas de actores-humanos y actantes-no-humanos que median y unen el entramado social. Estas regulaciones están dirigidas a lograr mayor estabilidad mediante delegaciones de funciones en los heterogéneos ensamblajes de actores-humanos y actantes-no-humanos. Las mediaciones técnico regulativa tienen por objeto intervenir en una situación práctica para lograr una estabilidad perdurable a través del control de conductas y espacios. Por ello, las mediaciones técnico regulativas poseen una ambigüedad constitutiva, están caracterizadas por ser dispositivos polivalentes que pueden volverse irreversibles y pasar a funcionar, no como estructuras de asociación y cooperación, sino como estructuras de dominación. Sin embargo, este cambio de calidad hacia la (ir)reversibilidad dependerá de los usos finales, de las redes y las delegaciones que sostienen la mediación técnica de dicha regulación.

II) Las mediaciones técnico regulativas se concentran en un campo de tensiones políticas altamente heterogéneo. El campo de las regulaciones en Internet es un campo móvil e ineludible, compuesto de mediaciones técnico regulativas que tiene por objeto el control social en sentido amplio. El diseño de entornos que las mediaciones logran, a pesar de la movilidad de su campo, tiene centros bien definidos de producción. La creación y diseño de los entornos digitales se ubica en laboratorios que, superando las escalas de tiempo espacio, pueden diseñar el entorno y transformar materiales con potencial para el control local en materiales relativamente móviles, con control a distancia y durables a través del tiempo. El campo de las regulaciones en Internet está atraído por la efectividad que las mediaciones técnico regulativas pueden alcanzar subvirtiendo la política, integrándola y delegándola en redes estables de actantes-no-humanos. Por tanto, el campo de las regulaciones esta atravesado por la tensión entre dos paradigmas contrapuestos: por un lado, un diseño de entorno cerrado, controlado, centralizado, basado en la seguridad del trafico mercantil, y por el otro, un diseño de entorno digital abierto, libre, distribuido, basado en la cooperación creativa de las comunidades que producen y mantienen el espacio. Esta tensión originaria y permanente se da entre el diseño de las polivalentes mediaciones técnico regulativas y los resultados efectivamente alcanzados luego de cualquier intervención. Ambos momentos están gobernados por los usos-finales de los actores que soportan las redes.

III) La codificación de nuestra experiencia socio técnica esta cambiando rápidamente. Muchos de estos cambios, aún silenciosos e invisibles, son producto del vertiginoso desarrollo de las tecnologías digitales. Si bien Internet es un espacio difícil para la regulación jurídica clásica, no lo es para las regulaciones vinculadas al diseño del mismo entorno digital. Las leyes, a pesar de su visibilidad y sistematicidad, son una mediación técnico regulativa que no logra regular de forma efectiva el ciberespacio. El derecho queda como garantización de otros reguladores puesto que pose una lógica ex post facto, discontinua, reactiva, que delega funciones en redes compuestas altamente por actores-humanos. Esto vuelve su práctica discrecional y contingente. Contrariamente, las olvidadas normas sociales son mucho más silenciosas, profundas, efectivas, puesto que, a pesar de su invisibilidad, se hunden en lo profundo de nuestro entramado socio-técnico. Junto a las silenciosas estrategias de las normas sociales, el regulador que debemos tener en cuenta para un correcto análisis del ciberespacio es el código del espacio de las aplicaciones de Internet ubicado en la interfaz que relaciona simbióticamente los actores-humanos y los actantes-no-humanos. Este código es un tipo de lenguaje procesable por humanos, una mediación producida en laboratorios de diseño de entornos digitales, a través del cual se generan y delegan directamente instrucciones legibles por redes de actantes-no-humanos estables y perdurables en el tiempo. Los reguladores se mixturan en la regulación del ciberespacio y su diseño, elección, articulación y optimización conforma un nuevo arte regulativo, que producido en laboratorios, diseña y construye proactivamente el entorno digital en el mismo momento que lo regula bajo el signo de la oscura y silenciosa conquista del ciberespacio.

IV) Internet posee una extraña pero fascinante forma de gobierno guiada por el nuevo arte regulativo de laboratorios que transforma la arquitectura silenciosa de Internet en la instancia política por excelencia en el campo de las regulaciones. Por arquitectura entendemos la estructura de Internet que, más o menos flexible, define el estado de las mediaciones técnico regulativas en un espacio tiempo determinado. La arquitectura de Internet, más flexible y modificable que la arquitectura de lo urbano, se encuentra dentro del mundo digital, o sea, próxima al espacio abstracto de las ideas. La arquitectura originaria, desde sus inicios, está estructurada de forma abierta, flexible, y transparente, lo que permite modificaciones y agregados a sus bases constitutivas. Esta flexibilidad y apertura originarias han sido su mayor virtud al mismo tiempo que uno de los mayores peligros. Su alteridad implica también la posibilidad de su cierre frente a la proliferación de tecnologías de control. La arquitectura evidencia una tensión entre los diseños originales y los usos finales sobre el espacio. Estas tensiones emergieron claramente frente a los cambios profundos que comenzaron a afectar la arquitectura de la red cuando se hizo evidente la obsolescencia del derecho clásico reactivo para su regulación. De los laboratorios emergió un nuevo ethos cibernético -basado en las formas políticas silenciosas, seductoras, alternativas- que comenzó a usar el diseño de entornos digitales, a través del código, para regular usos, conductas, accesos y espacios en Internet. La arquitectura pasó a ser la política de la red y su diseño político pasó gobernar la ecología informacional.

V) Internet es una red descentrada, altamente interconectada y compuesta computadoras enlazadas, lenguajes comunes, aplicaciones y contenidos. Su arquitectura (originaria) es distribuida, abierta, flexible, transparente y auto-evolutiva, gracias a procesos técnicos de delegación de funciones sobre redes heterogéneas de actores-humanos y actantes-no-humanos provenientes de una cultura de la libertad que soportó su desarrollo. La arquitectura de Internet, visto desde su evolución tecnológica, es descentrada producto de la conmutación de paquetes (Packet Switching). Desde su evolución organizacional, es una arquitectura abierta a los cambios gracias a la creación de un protocolo común de comunicaciones (TCP/IP). En la evolución de su diseño (filosófico-proyectual) los diseñadores tempranos de la red utilizaron el argumento End to End para construir redes inteligentes en sus márgenes, en su extremos, más que en su centro. La arquitectura fue pensada para establecer un marco minimalista y redundante bajo un nuevo paradigma que hace uso de reglas simples para la resolución de problemas complejos. Ello desactivó el control centralizado, desplazó el procesamiento de la información hacia los constructores-productores y permitió el florecimiento de un espacio abierto y libre de innovación común sustentado en una arquitectura par-a-par donde la relación entre servidores y clientes es reversible, simétrica y equitativa. El desarrollo auto-evolutivo de Internet, semejante a un organismo biológico, permitió que los usuarios sean también productores de la misma tecnología que construía el ciberespacio.

VI) La arquitectura política de Internet esta lejos de tener una naturaleza pétrea e inalterable. Las luchas por el control de la red, analíticamente, pueden sintetizarse en diferentes capas que componen su arquitectura. El medio Internet está dividido al menos en 3 capas independientes (físicas, lógica, de contenidos) las que admiten diferentes tipos de control sobre sus recursos (propiedad privada, gestión común, dominio público). La capa de la infraestructura de Internet es una capa altamente controlada bajo el régimen de la propiedad privada. Por el contrario, la mayor parte de Internet en lo referido a su capa lógica se construyó a base de estándares abiertos no propietarios que crearon un espacio de libertad en las capas del código y de contenidos, y para cuyo acceso no se requerían controles en relación a la identidad o actividad desarrollada. El control sobre las capas lógica y de contenidos es el punto más conflictivo en la actual regulación de la red, puesto que existe -desde la década del 80- una clausura (trágica) de los espacios comunes de Internet a manos de algunas tecnologías de control e identificación. La capa lógica, donde reina la producción del código, enfrenta de manera radical el software libre contra el software propietario. El código abierto y libre constituye un importante mecanismo de control frente al poder del estado y de corporaciones comerciales. El respeto de la arquitectura originaria, la separación, autonomía, transparencia e integridad de las capas que componen la red, así como el desarrollo abierto, distribuido y cooperativo de Internet, son esenciales para garantizar la libertad de nuestra ecología informacional.

VII) El código abierto y transparente es patrimonio de nuestra condición sociotécnica común. Posee la profundidad, apertura e incertidumbre de nuestra evolución como humanos. Sin embargo, cuando exclusivamente los intereses comerciales son los que determinan y producen el código nos encontramos frente a una traducción peligrosa donde el código hace las veces de leyes a las que falta la carga publica común. El cierre de la capa lógica, la producción de código cerrado por dinero, fue resistido en la década del 80 a través de la Licencia Pública General de la Fundación para el Software Libre. La misma se compuso de partes jurídicas, partes éticas provenientes de la cultura hacker, usos y normas sociales, y sobre todo, de partes de código de la capa de las aplicaciones. Se conformó un dispositivo regulativo proveniente de la esfera privada-no-comercial que se deslizó hacia el ámbito público, no como posibilidad, sino como alternativa real, regulando a través del código y respaldándose en otros reguladores clásicos. El caso de la GPL es uno de los primeros antecedente del nuevo arte regulativo que articula los diferentes reguladores con el fin de proteger la apertura y transparencia en las capas de Internet. Cuando las regulaciones públicas clásicas son inviables, cuando las corporaciones del software, del entretenimiento cultural y, en suma, cuando las regulaciones que resguardan el interés público están gobernadas exclusivamente por intereses privados comerciales, las codificaciones que parten del espíritu libre de los intereses privados no comerciales de usuarios-ciudadanos productores finales se transforman en una vía de escape alternativa a los procesos de cierre y caída de la representación de las democracias occidentales.

VIII) Frente al nuevo arte regulativo emergente las regulaciones abiertas son un gran desafío histórico y un proceso muy necesario. El cierre de la capa lógica se ha extendido en la década del 90 a la capa de contenidos de Internet. La tragedia de los espacios comunitarios, de los bienes intangibles de la mente, está dada también por el cerramiento en la capa de contenido. Esta enfrenta la privatización y sobreprotección, tanto legal como tecnológica (tecnologías de control), de los contenidos que circulan en la red. La propiedad (dominio) puede extenderse hacia los derechos de autor haciendo uso de la analogía de la “propiedad intelectual”. Los plazos de protección de las obras creadas a nivel global han sido extendidos en el mismo momento en que los efectos prácticos de las regulaciones pasaron a brindar una cobertura instantánea y a-formal, lo que puede generar una grave merma en la creación de nuevas obras. Más allá de la tensión histórica entre derechos de autor y tecnologías de producción, copia y representación, las regulaciones legales sobre el derecho de autor fueron perdiendo en la última parte del siglo XX su verdadero sentido, su misión, su razón de ser. Han dejado de generar incentivos a la creatividad, la ciencia y los valores democráticos y se han transformado en una pesada carga explotando la creatividad y riqueza de las comunidades. Afortunadamente, gracias a la arquitectura de Internet, el código y las regulaciones en las capas de Internet no son diseñadas exclusivamente por las corporaciones comerciales. Aunque todavía insuficiente, existe un fuerte activismo (hacktivismo) de comunidades de usuarios-productores y universidades que contribuyen, a través de sus laboratorios, a producir espacios abiertos al libre intercambio.

IX) Son escasos los actores e instituciones con capacidad y voluntad suficientes para asumir los desafíos del nuevo arte regulativo. Sin embargo, es posible que nos encontremos frente a la gestación de un nuevo movimiento social global que se aboca a la protección de la diversidad cultural, el dominio público y los valores que sustentan las sociedades abiertas y libres. El emergente más importante del campo de las regulaciones en Internet es la aparición de corporaciones sin fines de lucro, organizaciones-neo-gubernamentales (ONGs) soportadas por comunidades de usuarios productores, que están interesadas en preservar las libertades básicas de las sociedades democráticas. Estas hacen uso del nuevo arte regulativo a través de laboratorios, creando y diseñando el ciberespacio al mismo tiempo que lo regulan. Sin embargo, no lo hacen mediante las formas clásicas instituidas, sino a través de formas innovadoras subvertoras del orden estatuido. Las arquitecturas par-a-par muestran que la inteligencia es aportada, más que por núcleos centrales inteligentes, por los usuarios finales-productores. Por ello, las regulaciones efectivas van desde el diseño de las arquitecturas, pasando por los códigos, las leyes, hasta las mediaciones políticas que se ubican en la cotidianeidad práctica de los usuarios productores finales e intentan captar la inteligencia distribuida y silenciosa que caracteriza nuestro entramado socio-técnico. A finales de 2002 se creó Creative Commons, una organización-neo-gubernamental pensada como un espacio abierto, cooperativo y comunitario. Creative Commons funciona como un contra-laboratorio de diseño de entornos que se enfrenta a las ineficientes regulaciones clásicas de las capas superiores de la red y participa en el gobierno y conquista silenciosa del ciberespacio, mediante codificaciones privadas, abiertas y creativas.

         X) La estrategia de Creative Commons de tan evidente, se haya oculta en sus mismas bases. Creative Commons es una invitación a compartir, a asociarse, a crear y (re)crear, a fusionar y mixturar obras, para superar la barreras clásicas en el campo de las regulaciones. Conforme al nuevo arte regulativo y, haciendo uso de los diferentes reguladores que lo componen, los diseñadores de Creative Commons establecieron una estructura de licencias compuestas de tres niveles. El acuerdo o título común (Commons Deed) está claramente orientado hacia las normas sociales, a trabajar sobre el emergente de los usuarios creadores, y es legible por humanos en general. El segundo nivel, de las licencia o código legal (Legal Code) se apoya directamente en el derecho y es legible por humanos entendidos en leyes. Finalmente, a través del código digital (Digital Code), el metadata pretende crear una web semántica solo procesable por actantes-no-humanos, como pieza fundamental para los buscadores y aplicaciones que intenten dar con las obras y las condiciones de uso de las mismas. Creative Commons no combate las leyes, sino que las crea mediante un nuevo lenguaje. No destruye las costumbres, las crea entendiendo y aprovechando la diversidad de las normas sociales. No reaccionan en contra de las arquitecturas o contra las tecnologías de control, solo construyen otras que son respetuosas de los derechos básicos de un colectivo democrático. No están en contra del mercado, solo intentan devolver un balance y evitar el colapso final de un capitalismo asfixiante. Creative Commons es un laboratorio político subvertor, una instancia de codificación privada que pretende construir e imponer, a través de la fuerza de lo que ya es, las futuras codificaciones públicas sobre las capas superiores de Internet.

Por ultimo, algunas reflexiones e interrogantes finales que podrían ayudar a establecer nuevos itinerarios, desafíos, algunas pistas y nuevas investigaciones en el campo de las regulaciones en Internet. He analizado que las regulaciones, como dispositivos polivalentes, son piezas esenciales del diseño de nuestro entorno sociotécnico. Sin embargo, insisto que estos procesos no son claros ni evidentes como generalmente se supone. Sepa el lector que en este trabajo he intentado un camino de tantos posibles. Desde mi perspectiva, el secreto de las nuevas regulaciones, el motivo de mi trabajo, la razón oculta en estas líneas, es la emergencia de una nueva forma regulativa proactiva, ligada a la oscura conquista de los laboratorios, que crea y domina los espacios y las conductas a través del diseño mismo del entorno digital. Luego de haber aportado material, analizado y explorado el campo de las regulaciones, creo que ha quedado claro que el nuevo arte regulativo ha llegado para quedarse. Sin embargo, también se que estos procesos son muchos más amplios que las posibles tendencias que he podido describir. Tengo la certeza que los cambios recién están comenzando y por ello, creo necesario continuar investigando el complejo campo de las regulaciones en el ciberespacio y su nuevo arte regulativo emergente. Esta es una tarea muy necesaria que debemos realizar los interesados en la libertad, la apertura, la diversidad cultural y la protección del ambiente digital.

Como he expresado anteriormente, Creative Commons es la historia de una historia ambiciosa, es uno de los mejores ejemplos de metástasis, de invasión, de creación de un laboratorio para construir alternativas de apertura en las diferentes capas de Internet. Pero también es un buen ejemplo de cautela ante la proliferación y venta ambulante de control por parte de corporaciones comerciales y estados nación alrededor del mundo. La solución a estas luchas de altísimo nivel será, irreversiblemente, la solidificación de un determinado estado de cosas, no solo a través del antiguo poder de nominación que todavía conserva la estructura jurídica moderna, sino por la solidificación de una red interminable de actores-humanos y actantes-no-humanos que se transformarán en poco tiempo en lo que conocemos, en la naturaleza misma del ciberespacio. Las regulaciones privadas no comerciales, nacidas de una cultura de la libertad, muestran afortunadamente una vitalidad que no se encuentra fácilmente ni en las leyes, ni en el mercado, ni en el diseño de la tecnología por parte de las corporaciones comerciales. En este sentido, y a sabiendas de que esto puede significar muy poco, sabemos que a un año de su lanzamiento Creative Commons tenía solicitadas más de 1.400.000 licencias. Creo ver que este es un claro indicador del crecimiento vertiginoso de este experimento calculado y diseñado a través de laboratorios.

Sin embargo, lo más importante que puedo decir al finalizar este trabajo, es que la eficacia del laboratorio Creative Commons para regular los derechos de autor a nivel global será decidida por los usuarios finales que hagan uso y aprovechen las mismas licencias. El laboratorio Creative Commons ha logrado dar el primer paso en el diseño y codificación de un entono, pero resta aún la utilización que los usuarios hagan de este espacio y la capacidad que tenga Creative Commons para optimizar y retro-alimentar su experiencia dentro de una arquitectura flexible que evite el enclosure en las capas lógicas y fundamentalmente de contenidos de Internet. Allí es donde el activismo digital parece cobrar real entidad. Lo importante en este punto es tener claro que un proyecto como Creative Commons es consecuencia de la acción colectiva y no causa de esta misma acción. En otras palabras, Creative Commons es el resultado de mediaciones configuradas previamente por los usuarios finales. ¿Existiría Creative Commons sin las licencias que le sirvieron de inspiración, sin el concepto de Copyleft, sin el desarrollo de las tecnologías par a par (P2P) que le sirven de antecedente? ¿Existiría Creative Commons sin los usuarios que diariamente hacen uso de las licencias y confirman la voz silenciosa de los que configuran el ciberespacio? Analizar Creative Commons como la resultante de un proceso mayor es el mejor de los procedimientos a la hora de auscultar los procesos complejos que componen nuestro entramado sociotécnico. Pero, ¿por qué digo esto?

En caso que Creative Commons fracase en su misión y sea barrido del campo de las regulaciones, insisto en preguntar, ¿puede el lector olvidar la idea que subyace a Creative Commons? ¿Puede el lector olvidar como el laboratorio Creative Commons hace uso de este nuevo arte regulativo? Asimismo, es posible que olvidemos a Richard Stallman y su cruzada moral, pero insisto ¿es posible que nos olvidemos de la producción abierta del software, de la importancia que el mismo reviste para nuestro ambientalismo digital, o directamente, la importancia que el software libre tiene sobre la actual economía digital? ¿Podemos olvidarnos de Napster? Ciertamente si, pero ¿pueden los lectores olvidarse las tecnologías P2P, o aquello que subyace a la arquitectura abierta y auto-evolutiva de Internet? La red cambia rápidamente, muchas veces sin que podamos percibirlo. Seguramente, Creative Commons tendrá que crear nuevas estrategias de intervención en el campo de las regulaciones. No hay dudas que debemos seguir de cerca los pasos de este laboratorio y analizar sus estrategias de intervención en un campo tan complejo a nivel mundial. Sin embargo, estoy seguro que deben existir otros casos que puedan mostrar las mismas tendencias hacia este nuevo arte regulativo, que puedan evidenciar la presencia de mediaciones técnico regulativas que se hayan silenciadas. Confío que el desarrollo de este trabajo, junto a estas reflexiones finales, puedan generar los incentivos suficientes para que muchos ojos puedan resolver la complejidad en la que nos encontramos a nivel global, pero fundamentalmente a nivel local.

 

 

 

Bibliografía [119]

 

Abeles, Martín;  Forcinito, Karina; Schorr, Martín: ‘El oligopolio telefónico argentino frente a la liberalización del mercado: de la privatización de ENTEL hasta a la conformación de los grupos multimedia’; Universidad Nacional de Quilmes, Buenos Aires, Argentina, 2001.

Agazzi, Evandro; ‘El impacto epistemológico de la tecnología’; Universidad Génova, Italia; http://www.argumentos.us.es/numero1/agazzi.htm (última visita, agosto de 2002).

Aseff, Lucía: “De teorías críticas y Jusnaturalismos”. Boletín de la ‘Asociación Argentina de Filosofía del Derecho’, N°61; La Plata, 1993.

Barlow, John Perry; ’The Economy of Ideas: Selling Wine Without Bottles on the Global Net’, en http://www.eff.org/~barlow/EconomyOfIdeas.html; (última visita, agosto 2003); publicado originariamente en la revista Wired, en el mes de Marzo de 1994.

Barlow, John Perry; A Declaration of the Independence of Cyberspace’; 1996, http://www.eff.org/~barlow/Declaration-Final.html (última visita, Noviembre de 2002).

Baudrillard, Jean; ‘El crimen perfecto’, Anagrama, Barcelona, España, 1995.

Benkler, Yochai; ‘Communications infrastructure regulation and distribution of control over content’; New York University http://www.law.nyu.edu/benklery/ Telecommunications Policy 183 (1998) http://www.benkler.org/PolTech.pdf (última visita, Julio 2003).

Benkler, Yochai; ‘From Consumers to Users: Shifting the Deeper Structures of Regulation Toward Sustainable Common and User Access’; New York University http://www.law.nyu.edu/benklery/ Federal Communications Law Journal, 561, 2000 http://www.law.indiana.edu/fclj/pubs/v52/no3/benkler1.pdf (última visita, Julio 2003).

Berners Lee, Tim; ‘Tejiendo la red: el inventor del World Wide Web nos descubre su origen’; Siglo XXI de España editores, Madrid, España, 2000.

Borges, José Luis; ‘Otras inquisiciones’ en Obras Completas, Emece, Buenos Aires, Argentina, 1974.

Bourdieu, Pierre: “Cosas Dichas”. Gedisa, Barcelona, España, 1993.

Bourdieu, Pierre; ‘La distinción: criterios y bases sociales del gusto’; Taurus, Madrid, España, 1999 (A).

Bourdieu, Pierre: “Meditaciones Pascalianas”. Anagrama, Barcelona, España, 1999 (B).

Bourdieu, Pierre: ‘Poder, Derecho y Clases Sociales’, Desclee de Brouwer, Bilbao, España, 2000.

Boyle, James: ‘Foucault in Cyberspace: Surveillance, Sovereignty, and Hard-Wired Censors’, 1997 (A), http://james-boyle.com/foucault.htm (última visita, Agosto 2003).

Boyle, James: A Politics of Intellectual Property: Environmentalism For the Net?’, 1997 (B) http://www.law.duke.edu/boylesite/intprop.htm#N_1_; (última visita, Agosto de 2003).

Boyle, James: ‘The Second Enclosure Movement and the construction of the public domain’, en ‘Law and Contemporary Problems’, Febrero de 2003; URL del documento: http://james-boyle.com/papers.pdf (última visita, Agosto 2003).

Breuer, S: “Burocracia y carisma”. Generalitat Valenciana, Valencia, España, 1996.

Broncano, Fernando; ‘Mundos Artificiales: Filosofía del cambio tecnológico’; Paidos, México DF, México, 2000.

Cafassi, Emilio; Internet: Políticas y comunicación, Biblos, Buenos Aires, Argentina, 1998.

Callon, Michel; ‘Redes tecno-económicas e irreversibilidad’, en Revista Redes N°17, Quilmes, Argentina, 1998.

Candeira, Javier; ‘La Web como memoria organizada: el hipocampo colectivo de la red’, en http://jamillan.com/para_can.htm; Madrid, marzo de 2001, (última visita, Marzo 2003).

Castells, Manuel; ‘La era de la información: Economía, sociedad y cultura’, Siglo XXI, México DF, México, 1999; (Volúmenes 1 y 2)

Castells, Manuel; ‘La Galaxia Internet’. Areté, Madrid, España, 2001.

Castells, Manuel; ‘Internet, Libertad y Sociedad: Una perspectiva analítica’. Conferencia inaugural del curso académico 2001/2 de la UOC, 2001, http://www.uoc.es/web/esp/launiversidad/inaugural01/intro_conc.html (última visita, Noviembre 2002).

Cebrian, Juan Luis; ‘La red: como cambiarán nuestras vidas los nuevos medios de comunicación’ Taurus, Buenos Aires, Argentina, 1998.

Cerf, Vinton; prólogo en ‘The Internet under Surveillance: obstacles to the free flow of information online. Reporters without borders, Reporter 2003; http://www.rsf.org/IMG/pdf/doc-2236.pdf (última visita, Noviembre 2003).

Ciapuscio, Héctor; ‘El conocimiento tecnológico’ en la Revista Redes, N° 6, Quilmes, Argentina, 1996.

Cornella, Alfons; ‘Cómo sobrevivir a la Infoxicación’. Conferencia en la Universidad Abierta de Cataluña (UOC), del ciclo 1999-2000, diciembre de 2000; http://uoc.es/articles/cornella/acornella.htm (última visita, Julio 2002).

de Kerckhove, Derrick; ‘La piel de la cultura; Investigando la nueva realidad electrónica’. Gedisa, Barcelona, España, 1995.

de Kerckhove, Derrick; ‘Inteligencias en Conexión. Hacia una sociedad de la Web’. Gedisa, Barcelona, España, 1999.

Dertouzos, Michael; ‘La revolución incompleta’, Fondo de Cultura Económica de Argentina, Buenos Aires, Argentina, 2003.

Devoto, Mauricio; ‘El comercio eléctrico y la firma digital: las regulaciones del ciberespacio y las estrategias globales’, La ley, Buenos Aires, 2001.

Díaz, Esther (editora); ‘La Posciencia: El conocimiento científico en las postrimerías de la modernidad’. Biblos, Buenos Aires, Argentina, 2000.

Dick, Philip K.; ‘¿Sueñan los androides con ovejas eléctricas?; Edhasa, Barcelona, España, 1992.

Doménech, Miquel y Tirado, Francisco Javier (comp); ‘Sociología Simétrica: Ensayos sobre ciencia, tecnología y sociedad’. Gedisa, Barcelona, España, 1998.

Eco, Umberto; “Apocalípticos e Integrados”, Editorial Lumen-Tusquest, Barcelona, España, 1999.

Ferraro, Ricardo; “La marcha de los locos. Entre las nuevas tareas, los nuevos empleos y las nuevas empresas”. Fondo de Cultura Económica, Buenos Aires, Argentina, 1999.

Ferrer, Christian; “Mal de ojo. El drama de la mirada”. Colihue, Buenos Aires, Argentina, 1996.

Fidler, Roger; Mediamorfosis, Granica, Buenos Aires, Argentina, 1998.

Finquelievich, Susana (compiladora);Ciudadanos a la Red; Los vínculos sociales en el Ciberespacio’, La Crujía, Buenos Aires, Argentina ,2000.

Fischer, Hervé; ‘El choque digital’, Editorial de la Universidad de Tres de Febrero, Tres de Febrero, Argentina, 2002.

Fitzpatrick, Peter; ‘La mitología del derecho moderno’. Siglo XXI, México DF, México, 1998.

Foucault, Michel; ‘¿Qué es un Autor?, Universidad Autónoma de Tlaxala, México,  1985.

Foucault, Michel; ‘Vigilar y Castigar: nacimiento de la prisión’; Siglo XXI editores, Buenos Aires, Argentina, 1991 (A).

Foucault, Michel; ‘La gubernamentalidad’ en ‘Los espacios de poder’, La Piqueta, Madrid, España, 1991 (B).

Foucault, Michel; “La genealogía del racismo”. Caronte, Buenos Aires, Argentina,  1996 (A).

Foucault, Michel; ‘¿Qué es la Ilustración?’. Alción Editora, Córdoba, Argentina, 1996 (B).

Foucault, Michel; “Nietzsche, la genealogía y la Historia”. Pre-textos, Valencia, España, 1997.

Foucault, Michel; ‘La verdad y las formas jurídicas’; Gedisa, Barcelona, España, 2000.

Fukuyama, Francis; ‘El fin del hombre’, Sine Qua Non, Buenos Aires, Argentina, 2003.

Garland, David; ‘Castigo y sociedad moderna: un estadio de la teoría social’; Siglo XXI editores, México DF, México, 1999.

Gibson, William; “Neuromante”. Minotauro, Barcelona, España, 1989.

Gille, Bertrand; ‘Introducción a la historia de las Técnicas’, Crítica-Marcombo, Barcelona, España, 1999.

Gómez, Ricardo; ‘Progreso, determinismo, y pesimismo tecnológico’, Revista Redes, N° 10, Quilmes, Argentina, 1997.

Gómez Vieites, Alvaro y Veloso Espineira, Manuel: ‘Redes de computadoras e Internet: funcionamiento, servicio y alternativas de conexión’ Alfaomega, México DF, México, 2003.

Gubern, Román; ‘El Eros Electrónico’ Taurus, Madrid, España, 2000.

Harvey, Edwin R.: ‘Derechos de Autor, de la Cultura, y de la Información; Editorial Depalma, Buenos Aires, Argentina, 1975.

Hegel, Guillermo Federico; ‘Filosofía del Derecho’. Claridad, Buenos Aires, Argentina, 1955.

Himanen, Pekka: ‘La ética del hacker y el espíritu de la era de la información’, Destino, Buenos Aires, Argentina, 2001.

Hopenhayn, Martín: “Ni apocalípticos ni integrados”. Fondo de Cultura Económica Chile S.A., Santiago, Chile, 1995.

Huxley, Aldous; ‘Un mundo feliz’; Editores Mexicanos Unidos, México DF, México, 1985.

Internet Society (ISOC); ‘Internet Histories’, documentos actualizados por última vez el 10 de abril de 2003 http://www.isoc.org/internet/history, (última visita, Agosto 2003).

Jameson, Fredric: ‘El posmodernismo o la lógica cultural del capitalismo avanzado’ Paidós, Barcelona, España, 1995.

Kant, Immanuel; ‘Sobre la paz perpetua’. Tecnos, Madrid, España, 1996.

Kant, Immanuel; ‘Ideas para una historia universal en clave cosmopolita y otros escritos sobre Filosofía de la Historia’. Tecnos, Madrid, España, 1996.

Kapor, Mitchell; ‘The Software Design Manifesto’, editado en 1990, http://www.kapor.com/homepages/mkapor/Software_Design_Manifesto.html, (última visita, Abril 2003).

Kelly, Kevin; ‘Out of control: New Biology of Machines, Social Systems, and the Economic World’ en http://www.kk.org/outofcontrol/contents.php, 1994; (última visita, Abril 2003).

Kelly, Kevin; ‘Nuevas reglas para la nueva economía’, Granica, Buenos Aires, Argentina, 1999.

Klimovsky, Gregorio; Las desventuras del conocimiento científico’ A-Z Editora, Buenos Aires, Argentina, 1997.

Kossick, Robert; ‘The Internet in Latin America: New Opportunities, Developments & Challenges’, Revista Alfa-Redi, Número 33, 2001 http://www.alfa-redi.org/upload/revista/102401--22-43-internet.doc, (última visita, Julio 2003).

Latour, Bruno y Woolgar, Steve: ‘La vida en el laboratorio. La construcción de los hechos científicos’. Alianza Editorial, Madrid, España, 1995.

Latour, Bruno: ‘Dadme un laboratorio y levantaré el Mundo’; http://www.campus-oei.org/salactsi/latour.htm; Edición original 1983, traducción de Marta I. González García, (última visita, Septiembre 2003).

Latour, Bruno: ‘Jamais Fomos Modernos’; Editora 34, Río de Janeiro, Brasil, 1994.

Latour, Bruno: ‘Ciência em Ação: Como seguir cientistas e engenheiros sociedade afora’; Editora UNESP, Río de Janeiro, Brasil, 1997.

Latour, Bruno: ‘La esperanza de Pandora. En ensayos sobre la realidad de los estudios de la ciencia’. Gedisa editorial, Barcelona, España, 2001.

Latour, Bruno: ‘Reflexão sobre o culto moderno dos deuses fe(i)tiches’; Editora EDUSC, Río de Janeiro, Brasil, 2002 (A).

Latour, Bruno: ‘Scientific Objects and Legal Objectivity’, página personal del autor: http://www.ensmp.fr/~latour/articles/article/088.html#1b 2002 (B); versión revisada del capítulo 5 de ‘La Fabrique du Droit: Une ethnographie du conseil d’Etat’; La Découverte, París, Francia, 2002; (última visita, Agosto 2003).

Law, John; ‘Notes on the theory of the Actor-Network: Ordering, Strategy and Heterogeneity’, www.comp.lancs.ac.uk/sociology/soc054jl.html, 2001, Center for Science Studies, Lancaster University; (última visita, Noviembre 2002).

Lefebvre, Henri; ‘Hegel, Marx, Nietzsche’. Siglo XXI, México DF, México, 1998.

Lessig, Lawrence; ‘Tyranny in the infrastructure’ Julio de 1997, Revista Wired, http://www.wired.com/wired/archive/5.07/cyber_rights_pr.html (última visita, agosto 2003).

Lessig, Lawrence; ‘The Laws Of Cyberspace’, Draft Número 3, 1998 http://www.lessig.org/content/articles/works/laws_cyberspace.pdf (última visita, Octubre 2003).

Lessig, Lawrence. ‘Code and other laws of cyberspace’ Basic Books, 1999 (A), New York.

Lessig, Lawrence; ‘Reclaiming a Commons’, Draft 1.01, Mayo de 1999, http://cyber.law.harvard.edu/events/lessigkeynote.pdf, Berkman Center for Internet and Society, Universidad de Harvard (B), (última visita, Octubre 2003).

Lessig, Lawrence; “Architecting for Control”, Draft 1.0, Mayo 2000, en http://cyberlaw.stanford.edu/lessig/content  Stanford Law School. (A), (última visita, Octubre 2003).

Lessig, Lawrence. ‘Open Code and Open Society’, Tutzing, Germany, 1 June, 2000;  http://cyberlaw.stanford.edu/lessig/content, Stanford Law School. (B), (última visita, Octubre 2003).

Lessig, Lawrence: ‘The future of the ideas: the fate of the commons in a connected world’, Random House, 352, 2001, USA.

Lessig, Lawrence; ‘Introduction’, en ‘Free Software, Free Society, Selected Essays of Richard M. Stallman’, GNU Press (FSF), Boston, MA, 2002 (A), páginas 9-11.

Lessig, Lawrence: ‘Free Culture: Lawrence Lessig Keynotes form OSCOM 2002’, 2002 (B), O’Reilly and Associates, http://www.oreillynet.com/pub/a/policy/2002/08/15/lessig.html, (última visita Noviembre 2003).

Lessig, Lawrence: ‘Governance’, en The COOK Report on Internet, en el volumen XI, número 12, de Marzo de 2003;  paginas 34-39; http://www.lessig.org/content/archives/march2003cookrep.pdf (última visita, Noviembre 2003).

Lessig, Lawrence; ‘An Information Society: Free or Feudal?’, en The COOK Report on Internet, vol. XII, N°13, Julio-Septiembre de 2003; páginas 102-104; http://www.lessig.org/content/archives/apriljune2003cookrep.pdf, (última visita, Noviembre 2003).

Levy, Steven; ‘A Net of Control: Unthinkable: How the Internet could become a tool of corporate and government power, based on updates now in the works’; en Revista Newsweek Noviembre de 2003, http://msnbc.msn.com/Default.aspx?id=3606168&p1=0, (última visita, Noviembre 2003).

López Cerezo, José Antonio; ‘Ciencia, Tecnología y Sociedad: el estado de la cuestión en Europa y Estados Unidos’, revista Iberoamericana de Educación, 1998,  http://www.campus-oei.org/revista/frame_anteriores.htm, (última visita, Noviembre 2002).

Luhmann, Niklas; ‘Sociología del Riesgo’. Triana, México DF, México, 1998.

Luhmann, Niklas; “Ilustración Sociológica y otros ensayos”; Sur, Buenos Aires, Argentina, 1973.

Luhmann, Niklas; “Observaciones de la Modernidad”; Paidos, Barcelona, España, 1997.

Luhmann, Niklas; “Sistemas Sociales. Lineamientos para una teoría general”; Anthropos, Barcelona, España, 1998.

Luhmann, Niklas; “Poder”; Anthropos, Barcelona, España, 1995.

Maldonado, Tomas: ‘Lo real y lo virtual’, Gedisa, Barcelona, España, 1999.

Marx, Karl; ‘Crítica de la Filosofía del Estado de Hegel’; Grijalbo, México DF, México, 1968.

Mattelart, Armand: “Historia de la sociedad de la información”; Paidos, Buenos Aires, Argentina, 2002.

Maturana, H y Varela, F; “El árbol del conocimiento. Las bases biológicas del conocimiento humano”; Debate S.A., Madrid, España, 1999.

McLuhan, Marshall; ‘Guerra y Paz en la Aldea Global’, Planeta-Agostini, Barcelona, España, 1985.

Mitchell, William; ‘City of Bits: Space, Place and Infobahn’, Cambridge, MIT Press, 1995, USA. También en el sitio de Internet: http://mitpress2.mit.edu/e-books/City_of_Bits/index.html, (última visita, Octubre de 2003).

Negroponte, Nicholas; ‘Ser Digital’. Atlántida, Buenos Aires, Argentina, 1995.

Network Working Group; ‘Architectural Principles of the Internet’, Request for Comments (RFC): 1958 del Internet Architecture Board (IAB), Junio de 1996, http://www.ietf.org/rfc/rfc1958.txt, (última visita, Octubre de 2003).

Network Working Group; ‘Requirements for Internet Hosts -- Communication Layers’, Request for Comments (RFC): 1122, del Internet  Engineering Task Force (IETF) de Octubre de 1989; http://www.ietf.org/rfc/rfc1122.txt, (última visita, Octubre de 2003).

Nietzsche, Friedrich; ‘Crepúsculo de los Ídolos o como se filosofa con el Martillo’. Alianza Editorial, Madrid, España, 1998.

Nietzsche, Friedrich; ‘El Anticristo. Una maldición sobre el cristianismo’, Alba, Madrid, España, 1996.

Nietzsche, Friedrich; ‘Así habló Zarathustra’; Planeta-Agostini, Barcelona, España, 1992.

Nietzsche, Friedrich; “La genealogía de la moral”; Alianza Editorial, Buenos Aires, Argentina, 1995.

Nino, Carlos Santiago: “Introducción al análisis del derecho”; Astrea, Buenos Aires, Argentina, 1987.

Olson, David; ‘El mundo sobre el papel: el impacto de la escritura y la lectura en la estructura del conocimiento’; Gedisa, Barcelona, España, 1998.

Ong, Walter; ‘Oralidad y escritura: tecnología de la palabra’, Fondo de Cultura económica, México DF, México, 1997.

Oram, Andy (Compilador); ‘Peer-to-Peer: Harnessing the Power of Disruptive Technologies’; O’Reilly and Associates, USA, 2001.

Orwell, George; ‘1984’; Destino, Barcelona, España, 1994.

Piscitelli, Alejandro; “Ciberculturas: en la era de las máquinas Inteligentes”; Buenos Aires, Argentina, Paidós, 1995.

Piscitelli, Alejandro; “Postelevisión: ecología de los medios en la era de Internet”, Buenos Aires, Argentina, Paidós, 1998.

Piscitelli, Alejandro; “Meta-Cultura: El eclipse de los medios masivos en la era de Internet”; La Crujía, Buenos Aires, Argentina, 2002.

Quintanilla, Miguel Ángel: ‘Tecnología: Un enfoque filosófico’ Colección Ciencia y Tecnología, Eudeba, Buenos Aires, Argentina, 1991.

Reed, David P; Saltzer, Jerome H; y Clark, David D; ‘Active Networking and End-To-End Arguments’, última actualización Mayo de 1998, http://web.mit.edu/Saltzer/www/publications/endtoend/ANe2ecomment.html, (última visita, Octubre de 2003).

Raymond, Eric Steven; ‘The Cathedral and the Bazaar’ Musings on Linux and Open Source by an Accidental Revolutionary’; O’Reilly and Associates, 2001, USA.

Raymond, Eric Steven; ‘The Art of UNIX Programming’ Addison Wesley Pub Co., 2003, USA.

Rifkin, Jeremy; “El fin del trabajo: nuevas tecnologías contra puestos de trabajo: el nacimiento de una nueva era”; Paidos, Buenos Aires, Argentina, 1999.

Rifkin, Jeremy; ‘El siglo de la Biotecnología’; Crítica-Marcombo, Barcelona, España, 1999.

Rifkin, Jeremy; “La era del acceso: la revolución de la nueva economía”, Paidos, Buenos Aires, Argentina, 2000.

Rodotá, Stéfano; ‘Tecnopolítica’; Losada, Buenos Aires, Argentina, 1999.

Saltzer, Jerome; Reed, David; Clark, David; End-To-End Argument in System Design’ Laboratorio para la Ciencia de la Computación del Instituto de Tecnología de Massachussets y Software Art Inc, Massachussets, 1981 http://web.mit.edu/Saltzer/www/publications/endtoend/endtoend.pdf (última visita, Octubre 2003).

Sartori, Giovanni; ‘Homo Videns: La Sociedad Teledirigida’, Taurus, Madrid, España, 1998.

Schuster, Felix; ‘Consecuencias metodológicas del contexto de aplicación’ en la Revista Redes, N°4, Quilmes, Argentina, 1995.

Schuster, Felix; ‘El método en las ciencias sociales’ Editores de América Latina, Buenos Aires, Argentina, 1997.

Schuster, Felix: “Los laberintos de la contextualización en ciencia”, en Althabe, G. y Schuster, F. G. (comp.) Antropología del presente, Edicial, Buenos Aires, Argentina, 1999.

Shapiro, Andrew; ‘The Control Revolution: How the Internet is Putting Individuals in Charge and Changing the World We Know’; Public Affairs, New York, USA, 1999.

Simone, Raffaele; ‘ La tercera fase: las formas de saber que estamos perdiendo’; Taurus, Madrid, España, 2001.

Singh, Simon; ‘Los códigos secretos: el arte y la ciencias de la criptografía, desde el antiguo Egipto a la era de Internet’; Debate, Barcelona, Espala, 2000.

Sloterdijk, Peter; ‘El pensador en escena; El materialismo de Nietzsche’ Pre-textos, Valencia, España, 2000.

Solum, Lawrence y Minn Chung; ‘The layer principle: Internet architecture and the Law’, en Social Science Research Network (SSRN), http://ssrn.com/abstract=416263 electronic library, Junio de 2003, (última visita, Noviembre de 2003).

Stallman, Richard M; Copyright and Globalization in the Age of Computer Networks’ http://web.mit.edu/comm-forum/forums/copyright.html, conferencia dictada en el Massachusetts Institute of Technology (MIT) en Cambridge, Massachusetts el día 19 Abril de 2001, (última visita, Agosto 2003).

Stallman, Richard M; ‘Free Software, Free Society: Selected Essay of Richard M. Stallman’; GNU Press (FSF), Boston, MA, USA, 2002.

Strong, William S.: ‘El libro de los derechos de autor: guía práctica’; Editorial Heliasta, Buenos Aires, 1995.

Sunstein, Cass; ‘República.com; Internet, democracia y libertad’; Paidos, Barcelona, España, 2003.

Swartz, Aarón; ‘The Semantic Web in Breadth’ (2002) URL del documento: http://logicerror.com/semanticWeb-long, modificado por última vez en mayo de 2002, (última visita, Junio 2003).

Torvalds, Linus; ‘Interview with Linus, the Author of Linux’; entrevista realizada por Robert Young; http://www.linuxjournal.com/article.php?sid=2736; Marzo de 1994; (última visita, Agosto de 2003).

Tropeano, Francisco: ‘Introducción al procesamiento y transmisión de datos’. Alsina Editorial, Buenos Aires, Argentina, 2003.

Turkle, Sherry; ‘La vida en la pantalla. La construcción de la identidad en la era de Internet’. Paidós, Barcelona, España, 1997.

Vaidhyanathan, Siva; Copyrights and Copywrongs: The Rise of Intellectual Property and how it Threatens Creativity’ New York University Press, USA, 2001.

Vaidhyanathan, Siva; Siva Vaidhyanathan On Copyrights and Wrongshttp://interviews.slashdot.org/interviews/02/05/15/166220.shtml?tid=103, del 15 de mayo de 2002, (última visita, Noviembre de 2003).

Vaidhyanathan, Siva; ‘The new information ecosystem: Parte 1: Cultures of anarchy and closure’, del 26 de junio de 2003; Parte 2: ‘Pro-gumbo: culture as anarchy’, del 10 de julio de 2003; Parte 3: ‘The anarchy and oligarchy of science’  del 24 de julio de 2003; Parte 4: ‘The nation-state vs. Networks’ del 28 de agosto de 2003; Parte 5: Networks of power and freedom’ del 16 de octubre de 2003, http://www.opendemocracy.net/debates/article.jsp?id=8&debateId=101&articleId=1319, (última visita, Diciembre 2003).

Van Alstine, Marshall y Brynjolfsson, Erik; ‘Electronic Communities: Global Village or Cyberbalkans?’ 1996, http://web.mit.edu/marshall/www/papers/CyberBalkans.pdf, (última visita, Diciembre 2002).

Vattimo, Gianni; “La sociedad transparente”; Paidos, Barcelona, España, 1996.

Vercelli, Ariel; ‘Las regulaciones y el desarrollo en la sociedad de la información: aportes para un nuevo enfoque sobre las regulaciones.’ diciembre de 2002, Centro de Excelencia para la Región Américas e INICTEL del Perú: http://dc.inictel.gob.pe/regulacion/actividad.htm; (última visita, Octubre 2003).

Vercelli, Ariel; ‘Creative Commons y la profundidad del copyright’, Revista Enredando, http://enredando.com/cas/cgi-bin/enredantes/plantilla.pl?ident=247, publicado el 07/01/2003; Barcelona, España. También en ‘Creative Commons’, http://creativecommons.org/press/entry/3569 enero de 2003 (A), USA; (última visita, Octubre 2003).

Vercelli, Ariel; ‘Ad usum: algunos derechos en problemas: ILAW Program 2003 del Berkman Center de Harvard’. 2 de abril de 2003 (B), Buenos Aires, Argentina en INFOLEG, Ministerio de Economía de la República Argentina: http://infoleg.mecon.gov.ar/basehome/noticias/vercelli-1.htm; también en la revista Enredando, 22 de abril, Barcelona, España: http://www.enredando.com/cas/enredantes/enredantes186.html; (última visita, Octubre 2003).

Vercelli, Ariel; ‘La ICANN y los Root Nameservers de Internet’, Interlink Headline News,  editoriales N° 3096, 3070 y 3071 del 26, 27 y 28 de Junio de 2003 (C), Buenos Aires, Argentina: http://ilhn.com/ediciones/3069.html; http://ilhn.com/ediciones/3070.html; http://ilhn.com/ediciones/3071.html; (última visita, Noviembre 2003).

Vernant, Jean Pierre; ‘Los Orígenes del Pensamiento Griego’ Editorial Universitaria de Buenos Aires, Buenos Aires, Argentina, 1992.

Vernengo, Roberto José: “Teoría General del Derecho”. Depalma, Buenos Aires, Argentina, 1985.

Villalba, Carlos y Lipszyc, Delia; ‘El derecho de Autor en la Argentina’; La Ley, Buenos Aires, Argentina, 2001.

Villate, Javier; ‘La propiedad intelectual en la nueva era digital’; 2001, OCS, http://cibersociedad.rediris.es/archivo/articulo.php?art=40 (última vista, Marzo 2003).

Virilio, Paul; “El Cibermundo, la política de lo peor”. Ediciones Cátedra, Madrid, España, 1997.

Wayner, Peter: “La ofensiva del software libre”; Granica, Barcelona, España, 2001.

Weber, Max; “Ensayo sobre metodología sociológica”; Amorrortu editores, Buenos Aires, Argentina, 1973.

Weber, Max; “Economía y Sociedad”; Fondo de Cultura Económica,  México DF, México, 1999.

Weber, Max; “Ensayos sobre sociología de la religión” (1y2); Taurus, Madrid, España, 1998.

Whitaker, Reg; ‘El fin de la privacidad’; Paidós, Barcelona, España, 1999.

Wiener, Norbert: ‘Cibernética o el control y la comunicación en animales y máquinas’, Tusquest, Barcelona, España, 1998.

Williams, Sam; ‘Free as in Freedom: Richard Stallman’s Crusade for Free Software’; O’Reilly and Associates, USA, 2002.

Winner, Langdon:‘¿Tienen política los artefactos? http://www.campus-oei.org/salactsi/winner.htm; Publicación original: "Do Artifacts Have Politics?" (1983), en: D. MacKenzie et al. (eds.), The Social Shaping of Technology, Philadelphia: Open University Press, 1985. Versión castellana de Mario Francisco Villa; (última visita, Julio 2002).

Winner, Langdon: ‘Los Mitos Ciberlibertarios y sus Prospectos para la Comunidad’; http://contexto-educativo.com.ar/2000/2/nota-1.htm, ‘Revista Digital de Educación y Nuevas Tecnologías’, Número 4, Febrero de 2000; (última visita, Julio 2002).



[1] Muchas son las disciplinas que están involucradas en el campo de las regulaciones en Internet. En este punto remito al lector a ver el punto 2 del apartado D en esta misma Introducción (‘Nivel de análisis de la investigación’).

[2] Esta investigación requirió no solo el diseño de una metodología de investigación acorde al objeto de estudio, sino también el diseño y desarrollo de una estrategia de inmersión, capacitación, análisis y posterior separación del nuevo entorno electrónico. Esta inmersión llevó años de trabajo y fue, tal vez, el punto más difícil de la presente estrategia metodológica. En Internet, a diferencia de lo que comúnmente suele decirse, “no todos los que buscan encuentran”. Aunque no es este el lugar donde debemos reflejar todas las técnicas que están indirectamente vinculadas a esta investigación, estas se hacen conscientes al momento de escribir esta parte metodológica. Sería muy difícil explicitar, en este espacio limitado, todas las incumbencias de una incipiente profesión de “explorador de Internet”. Por ello, solo quiero dejar constancia que en ningún momento paso por alto la gran cantidad de rutinas, astucias, deformaciones, preconceptos, configuraciones, posturas, selecciones informacionales y demás tics, que tienen “incorporados” todos los usuario, y más aún, los investigadores de Internet. Sin dudas, muchas de estas “incorporaciones” también forman parte de los dispositivos menos evidentes que componen la caja de herramientas del explorador del ciberespacio.

[3] El investigador que analiza y explora un objeto de estudio que se encuentra en Internet, por las características mismas del medio, tiene que poder administrar, seleccionar y clasificar grandes cantidades de información. Al momento de iniciar una investigación sobre Internet, el investigador siente la falta de una metodología seria, completa, sistemática, para los trabajos exploratorios en el ciberespacio. El gran crecimiento de Internet, muchas veces visible en pocas semanas, e indudablemente en meses de trabajo de campo, dificulta el trabajo de exploración y presenta al investigador la sensación de un universo inabarcable. Por ello, nunca más cierto que sin una buena delimitación del objeto de estudio el investigador se encontrará perdido en pocas semanas y atrapado en una infoxicación peligrosa que le hará perder meses y tal vez años de trabajo.

[4] Esta apertura en el diseño caracteriza la presente investigación. Para el investigador que utiliza técnicas abiertas, el principio de oportunidad es tan importante como la pertinencia de la información al objeto de estudio. Las técnicas abiertas de exploración permiten el abordaje de casos tan dinámicos y novedosos como la regulación-autorregulación de Internet. Esta metodología facilitó cierto grado de improvisación al momento del trabajo de campo, lo que, a su vez, permitió conseguir información a tiempo, en momentos donde el acceso formal a la misma hubiera sido imposible.

[5] En este punto debo agradecer tanto a Maristella Svampa como a Judith Filc quienes, en el marco del taller de tesis realizado en FLACSO, me han recomendado la búsqueda de un caso concreto donde poder visualizar mejor las tendencias que iban marcando mis estudios preliminares sobre el campo.

[6] Si bien conocí los pasos iniciales de Creative Commons desde hace al menos tres años, no fue hasta su lanzamiento en diciembre de 2002 que pude vislumbrar que se trataba de un caso ajustado a las hipótesis preliminares que venía manejando. En este sentido, el temprano trabajo exploratorio sobre el campo dio un buen resultado. Más que una selección de caso estuve frente a la certidumbre del camino correcto. En pocas palabras, el caso Creative Commons me encontró como investigador. Sin embargo, esto no fue evidente hasta que pude materializar en algunos artículos, específicamente, ‘Creative Commons y la profundidad del Copyright’ (2003), las notas salientes de este trabajo exploratorio inicial. Originalmente este artículo, escrito a raíz del lanzamiento de Creative Commons, fue publicado en un weblog argentino, luego en una revista digital catalana y posteriormente reseñado y compartido por la misma gente de Creative Commons. Luego de los primeros pasos exploratorios exitosos, la publicación de este artículo formó también parte de la selección que el caso hizo sobre el investigador.

[7] El primero lo realice sobre ‘Regulación de nuevos servicios y aplicaciones IP’, con representantes de la ITU durante tres meses a finales del año 2002, mediante una beca de la AICD/OEA. El segundo curso de capacitación a distancia fue posible gracias a una beca del ‘Berkman Center for Internet and Society’ de la Universidad de Harvard, para el ‘ILAW Program 2003’.

[8] Tuve oportunidad de ser parte de la organización de la segunda Edición del Global Community Networks que se realizó en la Argentina en el 2001. También participé como becario en la tercera edición del Global Community Networks en Montreal en el 2002.

[9] El Instituto de Investigaciones Gino Germani de la Universidad de Buenos Aires, en el Centro de Estudios e Investigaciones en Derechos Humanos de la Universidad Nacional de Rosario, y en el ámbito del Taller de Informática, Telemática y Procesamiento de Datos de la Carrera de Comunicación de la Universidad de Buenos Aires.

[10] Podemos encontrar tantas y tan variadas regulaciones como divisiones del mundo existan, por tanto, cualquier clasificación al respecto resultaría incompleta. Preferimos dividir las regulaciones, al igual que ‘cierta enciclopedia china’ citada por Borges -‘Emporio celestial de conocimientos benévolos’ (Borges, 1974: 708)-, entre las que pertenecen a los emperadores, las regulaciones fabulosas, las de derechos de autor, aquellas que se agitan como locas, aquellas que hacen reír, aquellas ante las puertas de la ley, y finalmente, aquellas regulaciones que de lejos parecen monstruos gélidos.

[11] Ciertas regulaciones son visibles y ruidosas, mientras que otras son silenciosas e imperceptibles. Algunas pueden presentarse como artefactos, mientras que otras son llamadas naturales.

[12] Tenemos una ceguera constitutiva en relación a la proliferación de máquinas, híbridos y mediaciones técnico políticas. Michel Callon (1998) entiende que aún no hemos desarrollado el marco conceptual para volver evidente nuestra condición sociotécnica. La palpable proliferación de híbridos, siguiendo a Bruno Latour (1994), denota la emergencia de nuevas formas de lo social. Hasta el momento hemos negado nuestra condición sociotécnica mediante la ocultación de la proliferación de híbridos con los que interactuamos y conformamos desde hace siglos redes transtemporales de infinitas mediaciones, delegaciones y traducciones del mundo.

[13] A diferencia de otros medios como la radio, la televisión, el teléfono o bien un libro, Internet es el primer medio en la historia de la humanidad que permite interactividad, en tiempo real, sin importar la ubicación de emisores y receptores. Las arquitecturas P2P (par a par - peer to peer, en inglés) poseen una estructura donde cualquiera de los nodos, puntos, o pares de una red puede ser indistintamente proveedor o requirente en un intercambio de información. El concepto P2P engloba los proyectos desarrollados para potenciar esta característica fundante de Internet: los mismos permiten compartir tiempo de computación común, archivos de información, software o bien cualquier otro tipo de recursos de la red.

[14] Asociación de Industrias Grabadoras Americanas (Recording Industry Association of America); para más información visitar: http://www.riaa.com/ 

[15] Napster es el nombre de un software masivo que se transformó en el 1999 en el primer servicio de intercambio de archivos (especialmente de MP3) basado en una arquitectura par a par (P2P). A pesar de su arquitectura P2P, la aplicación que permitía el intercambio de archivos por la red funcionaba mediante una base de datos centralizada. Esto generó la persecución legal y finalmente su cierre en 2001. Aunque con un final incierto, Bertelsmann AG compro Napster en el año 2002, http://www.napster.com. Napster cambió radicalmente las formas en que podemos pensar y proyectar las interacciones con los actuales sistemas de derechos de autor a nivel mundial.

[16] En algunos apartados del trabajo utilizamos abreviaturas para facilitar la lectura y comprensión de algunas construcciones conceptuales del marco teórico.

[17] En el presente trabajo analizamos lo humano y lo tecnológico, como gusta decir Latour, desde un criterio dinámico y no-esencialista. La tecnología sigue siendo analizada, desafortunadamente, como un objeto externo a un sujeto creador sin mediación pasada, presente o futura. Por tanto, en mi análisis, tendré más en cuenta las mediaciones técnicas que los emergentes objetuales tecnológicos a los que confusamente se los hace interactuar con los actores clásicos de las ciencias sociales. La definición de actor clásico en las disciplinas sociales modernas solo incluye actores-humanos individuales -o colectivos- dentro de la acción político-social, dejando fuera de toda posibilidad de intervención político-social a los actantes-no-humanos. De allí su invisibilidad, como afirma Latour (2001), fundada en una clasificación disciplinar excluyente por dentro de las mismas ciencias.

[18] En este sentido, las regulaciones esconden cierta idea, extraña y vital, de perfectibilidad socio-técnica. Esta perfección perseguida como modelo ideal pretende sustituir la realidad. Esta tendencia pretende cumplimentar el proyecto racionalista moderno de lograr sociedades perfectibles. ¿Será el diseño tecnológico de nuestro entorno el mas moderno de los disfraces que sublima la angustia del sofisticado nihilismo de nuestro tiempo? Según la genealogía moral nietzscheana, el hombre prefiere creer en nadas a no creer (1995; 186).

[19] Las sociedades manifiestamente preocupadas por la evitación del riesgo son, como bien afirma Luhmann (1998), sociedades obsesionadas con el control. La obsesión por la evitación del riesgo parece caracterizar nuestras sociedades, donde el riesgo se vive como algo inminente, potencial, omnipresente. En su trabajo ‘Las leyes del ciberespacio’ (1998), Lessig señalaba claramente su temor sobre la posibilidad de que Estados Unidos se convierta en una nación exportadora de control. Según Lessig, “... los Estados Unidos dejarían de ser un símbolo de la libertad para convertirse en un vendedor ambulante de control” (Lessig; 1998).

[20] Las tecnologías de vigilancia vuelven transparentes nuestras vidas. La evolución de los sistemas de control inteligentes, tanto dentro de Internet como fuera de ella, ha vuelto la vigilancia cada vez más densa, constante y ubicua. La vigilancia se ha vuelto multi-sensorial y depende de un procesamiento de la información totalmente ajeno a los actores-humanos. En este sentido, los ‘data profiles’ etiquetan a los sujetos según niveles de riesgo y esta administración de información está ampliamente fuera de nuestro alcance. Para Reg Whitaker (1999; 11) este es un rasgo típico de la incipiente y peligrosa selección informacional de nuestras sociedades.

[21] Según Latour, “la tecnología es la sociedad hecha para que dure a través del tiempo” (Latour, 109; en Doménech y Tirado –comp- 1998). Llamamos tecnología a las situaciones donde los ensamblajes sociales ganan estabilidad alineando actores-humanos y actantes-no-humanos bajo condiciones de laboratorio. Sin embargo, la estabilidad se diferencia claramente de la irreversibilidad y de la dominación, las que dependen de la solidificación arquitectónica de nuestro entorno sociotécnico.

[22] Plantear el rol que las mediaciones técnicas tienen en un mundo que comienza verse como un proceso de irreversibilidad tecnológica, significa volver sobre los pasos –modernos- para intentar comprender como la tecnología funciona simultáneamente como posibilidad de acción y como dispositivo de control de esta actividad.

[23] Para John Law este proceso forma parte de la construcción de un control social a distancia, un tipo de política alternativa ejercida por medios científicos (Law, 73; en Doménech y Tirado –comp- 1998). Este proceso posibilita la superación de las escalas a través de redes de actantes-no humanos que se transforman en materiales móviles para hacer posible el control social a distancia y a través del tiempo. Es necesario pensar estas movilizaciones como traducciones de formas y materias hacia diferentes escalas, espacios y tiempos. Esta es una de las mediaciones técnicas fundamentales para el ejercicio del poder a distancia (Law, 81-88; en Doménech y Tirado –comp- 1998).

[24] Para que el control a distancia pueda darse, todas la interfaces deben tender hacia una estandarización. La estandarización busca establecer reglas mínimas de comunicación y coordinación en una red a través de MTR. Paradójicamente, estas reglas estandarizadas son a un mismo tiempo las formas de administración que permiten un funcionamiento mínimo y las normas obligatorias que crean las desviaciones al momento que también las controlan. Afirma Callon (1998) que cuando una red se vuelve irreversible ya es una red que esta sujeta a normas de todo tipo, puesto que trabaja sobre sistemas codificados de información. Mientras más cadenas de asociaciones e intermediaciones tenga un actor, mientras más cajanegrizados se encuentre, más firme, coherente y estable será su rol para poder lograr una actuación predecible. En este sentido, el costo de plantear alternativas a estas redes altamente estandarizadas-codificadas resulta prohibitivo (Latour y Woolgar, 1995; 271-2).

[25] La entornización se vincula a la producción de todo tipo de artefactos con los que interactuamos a diario. Sin embargo, hace unos años el concepto se ha extendido también a las instalaciones multimediales en las que artistas y cientistas combinan formas, materias y tecnologías para configurar el espacio-tiempo.

[26] El concepto de diseño de entornos deriva también, luego de varios siglos de capitalismo industrial, del necesario cuidado del medio ambiente. Como veremos en el capítulo 3, el tratamiento que platea James Boyle a los derechos de autor tiene varios puntos de contacto con las problemáticas ecológicas propiamente dichas (complejas, frágiles, y de impredecibles interconexiones con los sistema de la vida).

[27] El laboratorio es un sistema de inscripción-traducción donde se convence a terceros que la resultante del entorno no ha sido construida socialmente, ni posee una historia de construcción (Latour y Woolgar, 1995; 119). Es imposible verificar un enunciado-hecho fuera del laboratorio pues su misma existencia depende del micro-contexto del laboratorio donde se produjeron. Lo externo y la resultante de la actividad del laboratorio se corresponden por la sencilla razón de que son la misma cosa, provienen de la misma fuente (Latour y Woolgar, 1995; 206). En el laboratorio se convence a diferentes actores de la existencia de hechos concretos mediante la eliminación de las circunstancias históricas y sociológicas de las que depende la construcción del hecho. El hecho construido a través de un laboratorio aparecerá naturalizado, preexistente, real, fuera del tiempo y del espacio en donde fue construido, ensamblado, producido.

[28] La ecología informacional en la evolución de Internet tiende a ser tratada como una especie de aquello que Foucault llamaba biopolítica de la especie humana. Una política basada en tácticas con fines específicos, y orientada directamente sobre la población y no hacia los ciudadanos como objeto de regulación. (Foucault, 1991, 17).

[29] Internet nació con una historia peculiar. Su diseño originario deshabilitó, en parte, el control centralizado y promovió un espacio de libertad común que incentivo la innovación y la conectividad alternativa (ver capítulo 2). El desarrollo de Internet generó modelos que activaron nuevas arquitecturas y deshabilitaron formas clásicas de control centralizado. Sin dudas, estas características han sido decisivas para la modificación del campo de las clásicas regulaciones y para la abrupta emergencia de nuevas formas regulativas en Internet.

[30] El derecho a la intimidad está siendo olvidado por las políticas comerciales más elementales de la red. Muchos modelos de negocios a nivel comercial están anclados en la necesidad de violentar este esencial derecho democrático y los estados no son ajenos a estas prácticas. La unión entre la mediación del comercio y la anuencia de los estados, según Lessig (1999), edificará una arquitectura que perfeccionará el control y posibilitará regulaciones altamente eficientes. Sin embargo, lo hará con un costo altísimo para los intereses comunes, la democracia y algunas libertades esenciales para nuestras sociedades.

[31] El campo de las regulaciones estuvo históricamente gobernado -y en parte aún lo está- por la nociones jurídicas. A decir verdad, esta concepción notoriamente apegada al legado del derecho moderno como forma regulativa, se encuentra en una etapa de metamorfosis. El derecho funcionó históricamente dentro de las competencias geográficas del estado nación moderno. Sin embargo, Internet es una arquitectura distribuida, sin centro, que emergió como un nuevo espacio sin competencias geográficas. La regulación de Internet escapa a la retrospectiva lógica jurídica de la modernidad, aquella que, como afirmaba Hegel (1955), se mantiene siempre a la espera del Búho de Minerva.

[32] El término cibernética fue desarrollado en 1948 por Norbert Wiener: ‘Cybernetics, or control and communication in the animal and machine’ (Cibernética, o El control y comunicación en animales y máquinas). La cibernética se compone de las relaciones de retroalimentación evolutivas que se producen entre máquinas, ordenadores y humanos. La noción de cibernética remite, en sentido amplio, a las formas control, pero también a las nociones de gobierno y a la proliferación de híbridos. La cibernética es en si misma una caja negra en el sentido de Latour. Tal como afirma Lessig (1998) la cibernética persigue un fin claro y este es la regulación perfecta, las mejores formas de dirigir.

[33] En la fascinante novela de William Gibson “Neuromante” (1984), aparece una proyección anticipada del concepto de ciberespacio: “El ciberespacio. Una alucinación consensual experimentada diariamente por billones de legítimos operadores de todas las naciones. ... Una representación gráfica de la información abstraída de los bancos de todos los ordenadores del sistema humano. Una complejidad inimaginable. Líneas de luz clasificadas en el no-espacio de la mente, conglomerados y constelaciones de información, como las luces de una ciudad que se aleja” (Gibson, 1989; 69).

[34] Básicamente se discuten cuales son los modelos, tecnologías y usos que favorecen la libertad y la diversidad cultural en contraposición a modelos que activan una selección informacional homogénea y asfixiante. Por un lado aparecen las regulaciones, modelos, tecnologías y usos que posibilitan sociedades abiertas, libres y democráticas. Por el otro, encontramos dispositivos e intereses que posibilitan una clausura de los espacios comunes y un incremento jamás visto de las tecnologías de control que habilitan sociedades de control y vigilancia.

[35] El gobierno de las conductas logró su primer sistematización mediante el paso de una cultura oral hacia una cultura escrita. El pasaje de una sociedad basada en la oralidad a otra basada en la escritura, siguiendo a Walter Ong (1997), implicó cambios radicales para las formas de regulación. La técnica escritura enfrentó, según Olson (1998), los registros externos a la subjetividad. La escritura transformó la ley en una referencia objetiva y lugar de verdad por excelencia, y contribuyó a generar un espacio privado-público. A decir verdad, la gran sistematización, generadora de infinitas codificaciones, fue la creación del alfabeto. El alfabeto ha sido la referencia fundamental para la proyección y desarrollo de códigos a lo largo de la historia. La tecnología imprenta es la que inicia otro proceso que permitió, entre otras cosas, la seriación, la alfabetización, la mercantilización de las ideas, los derechos de autor-editor (copyright), la estructuración del conocimiento racional moderno, el estado nación, las burocracias y las extensas codificaciones jurídicas.

[36] Esta ha sido justamente una de las primeras hipótesis que guió el trabajo exploratorio inicial. Sin embargo, la tensión entre el derecho y la tecnología, no logra captar cuales son los emergentes actuales en el campo de las regulaciones. Mas que enfrentarse, parecen entrar en una larga, prolífica y peligrosa negociación que mostramos en los capítulos siguientes.

[37] Sepa el lector que esta selección de los reguladores es arbitraria, incompleta, y requiere de un análisis de mayor profundidad. Sin embargo, a los fines del presente trabajo, entiendo que es suficiente para analizar el nuevo emergente en el campo de las regulaciones de Internet.

[38] Por costumbre entiendo, siguiendo a Weber (1999), la conducta que ya es típicamente regular gracias únicamente a su carácter usual, y a la imitación irreflexiva, cuya prosecución nadie exige al individuo en ningún sentido. Sin embargo, tanto la costumbre como las normas sociales, están reguladas a través de la aprobación o desaprobación de un círculo humano que forma el mundo circundante específico.

[39] No existen mercados sin regulaciones que puedan establecer las pautas mínimas de tráfico, intercambio y lucro dentro de una economía capitalista. Más que analizar este regulador específicamente, estoy interesado en ver como este regulador se articula con la sistematicidad legal, las normas sociales y el código como emergente más importante en la regulación del ciberespacio. Los graves problemas regulatorios actuales se basan en el advenimiento de la red como un espacio de tráfico comercial.

[40] La mayoría de las veces utilizo la acepción que refiere a la arquitectura de las redes, pero en realidad, el concepto de arquitectura refiere genéricamente a los tres aspectos antes mencionados.

[41] La irónica formula nietzscheana de la felicidad moderna sintetiza este modo de ser de la modernidad. A saber: “formula de nuestra felicidad moderna: un si, un no, una línea recta, una meta” (Nietzsche, 1996; 21).

[42] Las codificaciones legales modernas fueron cuerpos de leyes impresas bajo una sistematicidad y métodos rigurosos, las que en su mayoría estaban divididas por disciplinas y ramas del derecho. Con posterioridad se llamó codificación a la concentración de una rama o temática dentro de una ley. La codificación moderna más conocida fue el Código Civil Francés o Código de Napoleón de 1804, que contenía varios miles de artículos.

[43] Esta construcción necesitó de arquitectos que dieran fundamento a la obra. Nunca existió un derecho formal, más o menos desarrollado, sin la presencia y colaboración de jurisperitos (Weber; 1999: 531).

[44] El estado tiene, según Max Weber, el monopolio legítimo de la violencia física sobre los ciudadanos. A este monopolio hay que agregar que el estado, a través de sus instituciones, detenta también el monopolio de la violencia simbólica. Las leyes son uno de los mejores ejemplos de este tipo particular de poder.

[45] Como bien afirma Bourdieu (2000) el grado de sistematicidad y de codificación de las conductas y espacios varía según el grado de riesgo que se perciba sobre ellas. ¿Existirá realmente ese encanto loco de las sociedades poco codificadas del que hablaba Bourdieu (1993: 87)?

[46] La tendencia obsesiva de sistematizar aquello que debía-ser sublimó paulatinamente la justicia material del caso concreto El derecho mutó desde resolver la verdad sobre casos concretos a una concepción legislativa, en la que se cristalizaban -a través de reglas escritas- todos los casos posibles para la resolución futura de conflictos. El positivismo jurídico significó para la historia del derecho aquel empuje final hacia la pureza técnica ficcional del derecho.

[47] La de-codificación del derecho muestra que solo la abstracción interpretativa salva la coherencia de la red interminable de decisiones que involucra a los constructores, aplicadores, y ejecutores del derecho. Su labor ejecutora-interpretativa fundada en analogías hace posible la labor sistemática que consiste en codificar y optimizar, con ayuda de la lógica, las reglas jurídicas abstractas.

[48] En este sentido, dirá Hegel que cuando la ciencia nocturna pinta el claroscuro, ya un aspecto de la vida ha envejecido y solo resta el reconocimiento (Hegel, 1955, 36). El derecho alcanza a sujetar la realidad, logra reconocerla, torcerla, pero afortunadamente no puede privarla de sus infinitas formas, colores y texturas. ¿Cómo llegar antes que el hecho este consumado? El crimen es perfecto, puesto que nunca tenemos posibilidad de llegar a el. Tal vez haya sido Philip K Dick el que mejor anticipó los modelos penales ficcionales, las guerras preventivas y la arritmia que caracteriza nuestro tiempo. ¿Será ese el futuro de nuestras sociedades: un juego obsesivo, paranoico, por la evitación del riesgo dentro de sociedades de complejidad creciente?

[49] La sociedad industrial, según Foucault (1991, 2000), necesitó de un control jurídico-político del alma (mente) caracterizado por su abstracción, negatividad y discontinuidad, pero también de una optimización y explotación del cuerpo a través de disciplina generalizada, caracterizada por la ubicuidad y continuidad del control. Para Foucault el modelo de la soberanía habla por la ley y el modelo de la disciplina habla por la norma y por nuevas tecnologías que disciplinan y regulan del cuerpo. El derecho moderno y sus codificaciones sirvieron, según Foucault (1996;37), para ocultar los procedimientos disciplinarios y las tecnologías tras la funcionalidad latente del derecho burgués.

[50] El derecho es una exquisita concentración de la experticia socio-cultural que se haya codificada bajo pautas y procedimientos supuestamente racionales. Es un conjunto de historias codificadas en las que encontramos expresados los conflictos, las luchas y los acuerdos de los agentes que lo construyen, ejercieron, ignoraron, o destruyeron.

[51] Los orígenes aparecen en los cuerpos, en los rituales y marcas, se esconden detrás de los signos. El derecho es, para Sloterdijk (2000) un sueño verosímil de la humanidad, nacido del carácter insoportable de las situaciones caóticas, dionisíacas. El derecho, al igual que la ética (cibernética), no persigue ningún objetivo más que trabajar con las disfunciones. Para Foucault (1997), el universo de reglas no está destinado a atenuar la violencia, por el contrario, está destinado satisfacerla, a controlarla, a tasarla, a regularla.

[52] Comenta Bourdieu que, el arte de socavar los cimientos de la autoridad y de los estados, consiste en buscar la fragilidad de las raíces de los fundamentos últimos, procurando señalar su injusticia, su arbitrariedad, artificiosidad y su imposición (Bourdieu, 1999; 126). Por ello, conviene siempre hacer pasar a la ley por la ley y nada más, ocultando su origen para mantener su firmeza. Allí radica el secreto mismo de la obediencia: en la ocultación. “La amnesia del génesis, producto de la habituación de la costumbre, oculta lo que se enuncia en la tautología brutal: la ley es la ley, y nada más” (Bourdieu, 1999; 127). ¡Dura lex, sed lex!

[53] Es el orden espontáneo –intuitivo- de la práctica el que primero aparece, el que se hereda. Es una actitud anímica interior la que lleva hacia la regularidad y esto constituye la (creencia en su) obligatoriedad’ (Weber; 1999: 260). Dirá Bourdieu que “se sabe que lo propio de la eficacia simbólica es que solo se puede ejercer con la complicidad de los que la sufren, tanto más segura cuanto más inconsciente, o sea, cuanto más sutilmente arrebatada” (Bourdieu, 2000; 210).

[54] La observancia de lo que de hecho se acostumbra es un elemento tan fuerte de toda acción (particular o comunitaria), que cuando la presencia coactiva de lo jurídico transforma una costumbre en una obligación jurídica, prácticamente, añade muy poco a su eficacia real. Mejor dicho, agrega solo una célula dormida y latente de ejercicio de la violencia física o simbólica. Se ve clara la ilusión juridiscista -ingenua creencia voluntarista de lo jurídico- cuando la obligación jurídica va contra la costumbre y fracasa. Allí es cuando rompe el circulo de ilusión tradicional sobre el cual las reglas son obedecidas. Allí nos encontramos con la ineficacia simbólica de la norma, o bien, con la violencia cruda. En el sentido inverso, ocurre el mismo fenómeno cuando se produce el desuetudo de la norma jurídica. Es por ello que, la convención puede determinar la conducta que la existencia de un aparato coactivo jurídico, en el sentido weberiano, no puede garantizar.

[55] Es interesante ver que desde diferentes posturas e ideologías se ha criticado tanto la intervención estatal rudimentaria, vía la regulación jurídica, como la autorregulación de la red a través, por un lado del desarrollo tecnológico libre de las empresas y por otro, por la defensa ciudadana de ciertas libertades y derecho elementales. Todas las posturas han sido duramente criticadas, aunque la más criticada -sin dudas- ha sido la autorregulación del ciberespacio dejada en manos de empresas y corporaciones con fines comerciales.

[56] El nacimiento de Internet estuvo también signado por las necesarias analogías que intentaron ubicar y asir el tiempo-espacio. El diseño de los entornos fue una narrativa muy usada por los desarrollos filosófico-políticos de Internet en la década del 80. Mas allá del enfrentamiento con la virtualidad, el ciberespacio no pudo evitar la analogía naturalista con el espacio urbano.

[57] Dentro del capitalismo industrial las corporaciones y monopolios que producían bienes materiales consideraban que para regular eficazmente los usos finales dentro de un mercado era necesario sancionar leyes. Preferían una legislación a la medida de sus intereses comerciales antes que modificar la arquitectura del producto o de su proceso de producción. Esta constituyó una instancia de irreversibilidad para la producción industrial. Sin embargo, esta condición está siendo rápidamente reemplazada por la convergencia y traducción del mundo material hacia un mundo digital.

[58] Nos referimos específicamente a dos derrumbes muy particulares. Por un lado, la caída en 1989 del muro de Berlín, que significo el derrumbe de una arquitectura -aparentemente horizontal y extendida- de más de 200 años de tradición política. Por el otro lado, el derrumbe de las Torres Gemelas del Centro de Comercio Mundial (WTC). El 11 de septiembre de 2001 significó también la caída de un modelo vertical, supuestamente opuesto al primero, con una tradición también de más de 200 años sobre sus cimientos.

[59] Los cambios a nivel tecnológico que produjo la ultima parte de la revolución industrial, desde principios del siglo XIX, fueron de singular relevancia para el desarrollo de las diferentes redes de comunicación y para el control en las economías desarrolladas. La electricidad se sumó a las redes ferroviarias y al telégrafo para configurar nuevas formas de control y comercio. Este conjunto de tecnologías conforma una secuencia inseparable de la historia de capitalismo industrial.

[60] Las redes electrónicas, desde el punto de vista de la distancia física entre nodos, pueden clasificarse en redes de área personal, de área local, metropolitanas y redes de área extendidas. Según su topología, las redes electrónicas pueden ser clasificadas por sus formas de conexión (bus, estrella, token ring, etc.), o bien por los tipos de conexiones físicas que poseen (por ejemplo, fibra óptica, cable coaxial, y par trenzado). Otras redes puede también ser clasificadas por el tipo de tecnología de transmisión de datos que emplea: TCP/IP (Transport Control Protocol/Internet Protocol), o bien una red del tipo SNA (Systems Network Architecture). Las redes pueden clasificarse también por el tipo de contenidos que transportan, o sea, si transportan voz, datos, o ambos tipos. Otro criterio posible es la diferenciación entre quienes tienen o no acceso a la red, o sea, el carácter publico o privado de la misma.

[61] La digitalización es aquella instancia donde la máquina llega a su máxima expresión. Lo digital es la expresión de un perfectible control sobre el acopio y transferencia de datos, sobre el trabajo interior de instrumentos o dispositivos y sobre las formas de mostrar o distribuir la información. Lo digital es una forma limitada, discontinua y discreta de analizar el mundo. Tiene una temporalidad fragmentada en instantes o tiempos específicos. Por el contrario, lo analógico remite a los infinitos movimientos continuos, que por definición, es lo amplio, lo comparable, lo que lleva de un lugar a otro mediante una comparación, mediante causas y efectos. Lo analógico remite al mundo de los espacios clásicos y es definido como el mundo de lo continuo, de la unión de causas y efectos que le dan al mundo su aparente continuidad y realidad. Lo digital-binario, como forma específica para las redes electrónicas, es parte de una de las mayores traducciones del mundo donde lo digital es la descomposición binaria de la materia, del espacio, pero fundamentalmente del tiempo.

[62] Si bien Castells indica que el ambiente donde se desarrollo Internet fue un ambiente relativamente seguro gracias a los fondos públicos gubernamentales del gobierno norteamericano, también fue fundamental para su desarrollo la creación de ámbitos de trabajo cooperativos donde no se sofocó la libertad de pensamiento e innovación (Castells; 2001: 36). Junto al espíritu de cooperación, asociación y emprendimiento, tal como lo entiende Richard Stallman, encontramos principios básicos como la libertad de expresión, información y la apertura de los lenguajes y códigos de programación.

[63] Una de las claves para la rápida expansión de Internet ha sido también, como no podría ser distinto, la libertad y apertura de los documentos básicos que gobernaron el nacimiento de Internet por la década del 60. Esta libertad de información estuvo caracterizada por la aparición de las solicitudes de información, observaciones o notas, de las llamadas ‘Petición de Observaciones’ (en inglés, Request for Comments - RFCs), los que contribuyeron a la circulación de información compartida en temáticas fundamentales de interconexión de redes y sus protocolos comunes. Estas formas abiertas y libres de intercambio y circulación de la información son las que, junto a otros dispositivos, muestran que la historia de Internet es la resultante de una convergencia de diferentes proyectos, redes, tecnologías y comunidades que estuvieron implicadas en su desarrollo de manera consciente o inconsciente.

[64] Como bien afirma Castells, queda claro que Internet no se originó en el ámbito empresarial por ser esta una tecnología demasiado osada, basada en un proyecto demasiado incierto y caro para ser asumido por empresas privadas (Castells; 2001: 36). Internet fue un ámbito de investigación que no fue pensado para el comercio, pero esta situación cambió a principios de la década del 90 con el desarrollo de la Internet masiva.

[65] Este fue el caso de la Fundación para el Software Libre (Free Software Foundation, www.fsf.org). Este ámbito permitió la creación casi casual del World Wide Web que desarrolló Tim Berners Lee. El nacimiento del WWW marcó la finalización de una era de frustraciones en la incomunicación entre ordenadores (Berners Lee; 1999: 33).

[66] La ICANN es una corporación privada sin fines de lucro organizada bajo la legislación de California que tiene por misión gestionar algunos de los recursos claves para el funcionamiento de Internet. Lo hace en función del interés público y en nombre de la Comunidad Global de Internet. La ICANN depende –básicamente- de la participación voluntaria de individuos y organizaciones (investigadores, empresarios, usuarios, etc. de todo el mundo). El objetivo central del proceso de creación de políticas de la ICANN es lograr un consenso entre los participantes de la Comunidad puesto que se sabe que por muchas de las decisiones y coordinaciones de la ICANN comienzan a pasar partes importantes del futuro de la Internet. El sistema de nombres de dominio y de direcciones (IP), de los que depende el tráfico de Internet, forma parte de un notable éxito tecnológico-organizacional, ya que son estándares abiertos y han sostenido el desarrollo de Internet desde la década del 1980.

[67] La Fundación para el Software Libre (Free Software Foundation, www.fsf.org) y la Iniciativa para las Fuentes Abiertas (Open Source Initiative, www.opensuurce.org) son dos corporaciones norteamericanas sin fines de lucro abocadas a la protección de las fuentes abiertas y libres del software de la capa lógica de Internet. Creative Commons www.creativecommons.org es una corporación norteamericana sin fines de lucro involucrada específicamente en la regulación de la capa de contenidos de Internet (Ver capítulo 3).

[68] Dicho por el mismo Baran, entrevistado por Lessig (2001), algunos conceptos fundamentales de los desarrollos del packet switching se deben al inglés Davies.

[69] La creciente incompatibilidad que caracterizó los sistemas informáticos y los diferentes grupos de usuarios, con tecnologías y protocolos de red diferentes generó la necesidad de desarrollar un conjunto de protocolos, para superar el autismo en el que se encontraban las redes electrónicas y sus aplicaciones. Si hablamos de comunicación, hablamos de códigos comunes, conversaciones y estandarizaciones. Internet existe, al igual que muchos sistemas de comunicación, gracias a la adopción de protocolos comunes para soportar las comunicaciones.

[70] Según el alcance geográfico y funcionamiento las redes de computadoras pueden dividirse en Redes de Área Local (LAN, Local Area Network), Redes de Área Amplia (WAN, Wide Area Network) y Redes de Área Metropolitana (MAN, Metropolitan Area Network).

[71] El protocolo de enlace X.25, considerado un protocolo pesado, fue el primer protocolo estándar basado en la conmutación de paquetes y fue desarrollado en 1976 por el Comité Consultivo Internacional sobre Telégrafos y Teléfonos (CCITT), nombre de lo que fue luego el Sector de Estandarización de las Telecomunicaciones dentro de las Unión Internacional de Telecomunicaciones (ITU-T). Ver http://www.itu.int/ITU-T/.

[72] El modelo ISO/OSI esta compuesto por siete capas o niveles. Estos conforman la arquitectura de interconexión de los llamados sistemas abiertos. Del nivel 1 al 7: Capa Física, Enlace, Red, Transporte, Sesión, Presentación y Aplicación. Los tres primeros están orientados a comunicaciones.

[73] Del nivel 1 a 5: Capa Física, Enlace, Red, Transporte y Aplicación. Las capas del  Sesión y Presentación se encuentran dentro de la Capa de Aplicación.

[74] End-To-End Argument in System Design’

[75] Estos procesos tecnológicos, estas formas evolutivas, están incrementalmente fuera de nuestro control, fuera de nuestro alcance. Según Kevin Kelly (1994) lo tecnológico, las máquinas -aquello que es construido- se está volviendo crecientemente biológico y lo biológico –aquello que es innato, natural- se vuelve cada vez más diseñable, maleable, construible. Las redes son, para nuestra época, un modelo que proviene de la biología y pueden asimilarse a un modelo evolutivo. Las redes y las tecnologías que las soportan aparecen como modelos de complejidad siempre en aumento.

[76] Esta simetría entre pares fue fundamental para volver Internet un desarrollo tan radical. La primera Internet fue mucho más abierta que la red que conocemos hoy. Los pocos hosts que soportaron ARPANET -UCLA, SRI, UCSB, y la Universidad de UTAH- fueron todos espacios de computación de información que se mantuvieron en un estado de igualdad. ARPANET los unía bajo una relación entre pares y no como una relación entre clientes y servidores estructurados jerárquicamente. La Internet actual puede observarse más zonificada, fragmentada, y tal vez, más cerrada que su modelo original.

[77] Esta división en capas del espacio Internet permite entender mejor las decisiones que fueron construyendo la red y observar esquemáticamente su funcionamiento. Esta forma esquemática de ver la estructura básica de Internet ayuda a analizar el concepto de arquitectura, permite evaluar las regulaciones que la afectan y permite observar los reguladores que están en juego dentro de este campo de las regulaciones del ciberespacio.

[78] Lawrence Solum y Minn Chung en un reciente trabajo ‘The Layers Principle: Internet Architecture and the Law’ (2003) dividen Internet en 6 capa ordenadas jerárquicamente. Según los autores, en forma descendente encontramos: a) Capa de Contenidos: compuesta por símbolos, imágenes y todo aquello que es comunicado; b) Capa de Aplicación: donde ubicamos los programas usados por Internet; c) Capa de Transporte TCP: donde la información es fragmentada en paquetes de información; d) Capa del Protocolo de Internet: o sea, la capa IP que maneja los flujos de datos sobre la red; e) Capa de Enlace: compuesta por la interfase entre los usuarios y las computadoras; f) Capa Física: donde encontramos los cables, satélites, fibra, o lo que llamamos genéricamente hardware.

[79] La forma de pertenencia, propiedad o sustentación de los recursos es esencial para comprender como la regulación tiene efectos diferenciales sobre cada una de las capas. Asimismo, nos permite ver los actores involucrados en los procesos regulativos.

[80] Desde mediados de la década del 80 a mediados de la década del 90, los modelos de negocios de las empresas desarrolladoras de software comenzaron a cerrar del código fuente de los sistemas. Los productores de software comercial comenzaron a crear aplicaciones propietarias mediante códigos cerrados dentro del espacio que Lessig llama ‘espacio de las aplicaciones’. Este diseño del entorno Internet, a través de aplicaciones comerciales de código cerrado, violó las normas básicas que Internet había tenido a lo largo de su historia.

[81] Internet puede transformarse en una red cada vez más propietaria, cerrada y que únicamente permita el acceso a los que dispongan de autorizaciones. Las certificaciones y las diferentes formas de regulabilidad en relación a la identidad pueden generar una grave zonificación del ciberespacio.

[82] Está claro que no todas las regiones a nivel mundial desarrollan chips, routers, computadoras o envían satélites al espacio. Luego de la segunda guerra mundial el modelo Norteamericano de la gran ciencia rindió sus frutos en la producción tecnológica. En menos de 20 años nació Internet, aunque como bien afirma Castells (2001), nació con las marcas de una historia a cuestas que en partes he podido analizar en el capítulo 2.

[83] Esta tendencia de cierre de la capa del código es lamentablemente muy actual. Las discusiones sobre la peligrosa y errónea necesidad de patentar el software a nivel mundial es el punto más álgido de las discusiones actuales. ¿Cómo pueden patentarse y darse exclusividad para una explotación comercial las unidades básicas de nuestros lenguajes, de nuestra condición sociotécnica, de nuestro genoma? Es la diversidad, en su sentido más amplio, la que esta en juego frente a estas tensiones. La diversidad que caracteriza nuestra condición humana frente a la construcción de homogéneos y asfixiantes mundos (in)felices.

[84] Sistema Operativo (SO) desarrollado en los laboratorios de AT&T y Bell para soportar múltiples usuarios de diferentes plataformas de hardware. Fue desarrollado por Ken Thompson y Dennis Ritchie a finales de los años 60 (septiembre de 1969). Para más información ver la línea del tiempo del UNIX http://www.levenez.com/unix/history.html#01 o bien directamente consultar ‘The Art of Unix Programming’ escrito por Eric Steven Raymond (2003).

[85] GNU es un acrónico recursivo que indica de forma creativa que el sistema GNU no es UNIX (GNU’s Not UNIX), pero que además significa ‘nuevo’ (guh-new) en la pronunciación del Inglés. Richard Stallman inició su cruzada moral, como afirma Sam Williams (2002), con el propósito de lograr un sistema operativo como UNIX, pero que a su vez fuera diferente. O sea, diferente en la posibilidad de permitir usos libres del software. Para más información visitar http://www.gnu.org/.

[86] Stallman lo dice insistentemente en sus presentaciones: tener o no la posibilidad de compartir con el vecino, tener o no la posibilidad de compartir para emprender algo en conjunto. Es por ello que, sin estos niveles de libertad, sería imposible pensar en desarrollos como los del GNU o los de LINUX (también GNU/LINUX, que para Stallman (2002) reconoce la importancia del proyecto GNU en todos los desarrollos de software libre a nivel mundial). Richard Stallman (2002) sintetiza estos derechos a través de cuatro clase de libertades que tienen los usuarios del software: 0) Libertad para ejecutar el programa, con cualquier propósito; 1) Libertad de estudiar como el programa funciona y adaptarlo a nuestras necesidades accediendo al código fuente; 2) Libertad de distribuir copias para compartir, colaborar y emprender con el vecino, con el que esta próximo; 3) Libertad de mejorar el programa y relanzar la mejoras para el público en general. El Software Libre posee estas cuatro características antes mencionadas.

[87] La Iniciativa de Código Abierto (OSI - Open Source Iniciative) fue creada por Eric Raymond, Sam Ockman, Bruce Perens, entre muchos más pertenecientes a la comunidad. La OSI evalúa y certifica si las licencias que utilizan los desarrolladores poseen o no calidad de código abierto. Para más información visitar la página http://www.opensource.org/. Según Stallman el Software Libre y el Software de Código Abierto mantienen una relación diferente frente a algunos valores, pero son parte de un movimiento amplio dentro de la comunidad de Software Libre. Para Stallman (2002) el enemigo a vencer el software propietario.

[88] Solución elegante, astuta e inteligente para resolver la situación problemática planteada, en este caso, por la legislación sobre derechos de autor. Es un programa o solución alternativa para escapar a la tensión entre el dominio público y la protección del copyright. Por tanto, es también una instancia de gobierno, una mediación técnico regulativa, tal como las hemos venido definiendo a lo largo de este trabajo.

[89] Todavía hoy resulta llamativo y admirable como Stallman pudo vislumbrar las posibles consecuencias, nefastas, de cierre de la producción abierta de software. La licencia tenía que dejar completamente abierto el software y además debía invitar a otros programadores a usarla para los mismos propósitos. La licencia pudo traducir la ética hacker articulando las lógicas de la producción de software, las lógicas legales y el espíritu de una comunidad naciente.

[90] Es importante resaltar que cuando se habla de código abierto, dentro del contexto de la Open Source Initiative (OSI), se incluyen también estándares generales de licencias no menos importantes. Estas son las licencias GPL, LGPL, BSD Classic, la Artistic, MIT o X Consortium, y la licencia Netscape. Sin embargo, para Eric Raymond (2003) la OSD, Open Source Definition (Definición de Código Abierto) http://www.opensource.org/osd.html es una solución superadora de la ambigüedad que en el inglés tiene el concepto Free Software, puesto que puede significar tanto software libre, como software gratuito. El concepto de Open Source, según Raymond (2003) forma parte de un contrato social que ha firmado la comunidad de programadores del movimiento de Open Source. Dentro de la OSD el derecho de copia, redistribución en formato no modificado y la modificación para usos personales están garantizadas. Sin embargo, la cláusula 6 (versión 1.9) de la OSD excluye, prohíbe y se diferencia de las licencias que excluyen los usos comerciales. En este sentido la OSD se contrapone a la GPL puesto que, según Raymond (2003), está ultima genera una ambigüedad constitutiva al no poder establecer cuales son las re-distribuciones del software que implican un uso comercial y discrimina los emprendimientos comerciales. Esta discusión actualmente divide la comunidad de programadores y usuarios del software libre y de fuente abierta. Para más información visitar la página http://www.opensource.org/

[91] La GPL también habla de si misma, sobre lo que permite la licencia GPL sobre si misma. Se especifica en la página de la GNU que la licencia permite a cualquiera copiar y distribuir copias literales de este documento, pero no esta permitido cambiarlo o modificarlo. Es este sentido, si estuviéramos hablando de teoría constitucional dentro del ámbito jurídico, la licencia GPL sería una cláusula de las que se llaman pétreas o inmodificables.

[92] Específicamente para Raymond y los líderes de la OSI lo que verdaderamente interesa a la OSD (Open Source Definition) cual es el grado de exclusión, diferenciación e infección que una licencia posee para brindar el certificado de Open Source. Una licencia esta infectada, según Raymond (2003) cuando requiere que cada trabajo derivado del software licenciado también sea licenciado bajo los mismo términos. La GPL es la licencia de estándares abiertos que más infectada está. Stallman (2002) ha contestado estas diferencias por dentro de la comunidad explicando que ‘Free Software’ y ‘Open Source’ describen, más o menos, la misma categoría de software. Sin embargo, dicen cosas diferentes sobre el software propiamente dicho y sobre los valores que su producción envuelve. Para Stallman y el proyecto GNU, el concepto FREE SOFTWARE sigue expresando la idea de que la libertad -y no solo la tecnología- es importante para nuestras sociedades.

[93] No hablo de los intereses privados de las corporaciones comerciales, ni tampoco de los intereses de grupos económicos que pretenden regulaciones a la medida de sus modelos de negocios dentro de mercados ficcionales. Me refiero a la esfera de lo privado como construcción íntima y separada de lo público estatal. Me refiero a la esfera de las libertades que tenemos como ciudadanos. En suma, me refiero a la instancia privada constructora de lo público, hablo de la instancia privada (libre y originaria) que, de tan atomizada y distribuida, conforma la instancia pública soberana común, típica de la modernidad política.

[94] La relación que existe entre las normas privadas y las leyes públicas es esencial para comprender los actuales cambios en el campo de las regulaciones. Entre estas dos instancias existe una interrelación dinámica. Los pactos, convenciones y contratos entre particulares valen como la ley misma solo bajo la condición de no afectar intereses públicos generales. Esta limitación a las libertades individuales es fundamental para entender el rol de lo público, puesto que las regulaciones privadas están siempre supeditadas a no afectar el bien colectivo. Sin embargo, no hay que confundir la preeminencia de los pactos, normas y convenciones de la esfera privada con el pernicioso proceso de privatización de las legislaciones a nivel mundial. Esta legislaciones privatizadas, a medida de los intereses económico concretos, regulan la vida de los ciudadanos bajo el sello de los intereses de corporaciones comerciales.

[95] Tal como afirma Raffaele Simone (2001), la escritura abierta para los textos legales ha sido siempre imposible. Estos siempre se han mantenido como textos inviolables, crípticos e inaccesibles. Actualmente, la escritura de las nuevas leyes-códigos -aún relativamente abiertos- requieren del manejo de varios lenguajes que no implican exclusivamente el lenguaje jurídico. A pesar de sus características específicas, este es claramente un nuevo emergente en la historia de las regulaciones.

[96] La escritura o el alfabeto, al igual que la imprenta o las redes electrónicas, también son tecnologías (Ong, 1997; Olson, 1998). Las mismas han siempre establecido nuevos regímenes en la relación entre el conocimiento y el cuerpo-mente. Fue la imprenta, según Eco (1999), la que permitió la seriación y la emergencia del libro como primera de las mercancías que anticipa la modernidad. Históricamente, antes de la imprenta y de la disponibilidad de papel para la misma máquina, no existía el derecho de copia o copyright. Tal vez si existía el derecho de autor en sentido genérico, aunque ciertamente no la construcción de la figura del autor, ni tampoco el derecho o la regulación sobre las copias en cabeza del editor. Esta construcción y sus implicancias económicas, sociales y culturales, según Foucault (1985; 1996-B) aparece siglos después con el desarrollo de la ilustración.

[97] ¿Qué ocurre cuando el control -lejos de ser imperfecto- logra conformarse como perfecto y ubicuo para excluir a terceros de obras que son fundamentales para la diversidad cultural, la innovación y los valores democráticos de nuestras sociedades?

[98] La vieja división dicotómica entre invención y descubrimiento esta rápidamente desdibujándose. Las consecuencias de estas nuevas categorías en formación son realmente inciertas. Las diferencias son aun más notorias cuando vemos la estructuración interna que los derechos de autor y la propiedad intelectual ha tenido en estos últimos siglos. No es menor el cambio en relación a la patentabilidad y la protección intelectual de los hechos, los procesos, los métodos, los códigos y las ideas.

[99] Al igual que en muchos países a nivel mundial en Argentina, la ley 24.870 (sanción 20/8/97 y promulgada 11/9/97) modificó el artículo 5° de la ley de Propiedad Intelectual (11723) elevando los plazos, originalmente de 50 a 70 años contados a partir del 1 de enero del año siguiente al de la muerte del autor.

[100] Tal como nos ha mostrado Javier Candeira (2001) la web y fundamentalmente los weblogs comienzan a funcionar como una memoria externa, como un hipocampo colectivo, formando una verdadera inteligencia conectiva (de Kerckhove; 1999). Esta es la ecología informacional que debemos proteger dentro de la capa de contenidos de un medio como Internet.

[101] Afirma James Boyle (2003) que aquello que se conoce como ‘enclosure’ forma parte de un movimiento de privatización de los bienes comunes o bienes que estaban fuera del sistema propiedad. Lo que se conoce como la tragedia de los primeros bienes comunes se dio primero en Inglaterra, y luego en otras regiones europeas, durante el siglo XVIII. Las interpretaciones sobre el proceso de cierre de las tierras comunes y el advenimiento de la propiedad privada de las tierras puede ser interpretado desde diferentes perspectivas. Suelen contraponerse por un lado las perspectivas económicas y, por el otro, las socio-políticas. Las primeras generalmente, si no son críticas, priorizan el rendimiento y productividad de las tierras sub-explotadas bajo el régimen de la propiedad común. Desde esta perspectiva el sistema de propiedad privada fue exitoso y las tierras se volvieron productivas salvando las poblaciones de las hambrunas. Las visiones socio-políticas preferentemente se enfocan en las consecuencias trágicas que estas migraciones del campo a las ciudades tuvieron sobre los procesos europeos de urbanización de los siglos XVII y XVIII. Esta segunda interpretación es la que más se ha difundido.

[102] Al español podría traducirse como Creatividad Colectiva-Compartida-Común-Comunitaria-Abierta. Creative Commons está dirigida por un Consejo de Directores entre los que se incluyen importantes expertos como los de Lawrence Lessig (presidente) y James Boyle. El proyecto actualmente se aloja y desarrolla dentro del Centro para Internet y Sociedad de la Escuela de Derecho de Stanford University.

[103] El sitio de Creative Commons recomienda a quieres tengan que proteger y licenciar obras vinculadas directamente con el desarrollo de software que recurran a la vieja y efectiva GPL (General Public License) del GNU. De forma similar, en la página de la FSF (Free Software Foundation) recomiendan que en caso de necesitar licenciar otros contenidos ni vinculados con desarrollos de software específicamente se recurra al sitio de Creative Commons.

[104] Common Content puede verse en http://www.commoncontent.org/. Funciona como un repositorio de obras que son licenciadas bajo las condiciones que habilita Creative Commons. Otro de los sitios a los cuales se puede acceder para la búsqueda e intercambio de materiales es The Internet Archive (El Archivo de Internet) http://www.archive.org/ donde se esta construyendo un biblioteca de materiales digitales (textos, fotos, películas, etc.).

[105] Tal como afirma Benkler (1999) mucha de la producción de Internet esta disponible gracias a las arquitecturas par a par que activaron la libertad de circulación de materiales gracias a la libre y transparente circulación de la información.

[106] Si bien las licencias no se contraponen a la ley norteamericana de copyright (DMCA, Digital Millennium Copyright Act), en muchos aspectos, las licencias son incrédulas de las jurisdicciones a nivel mundial tanto por su condición de emergente privado, como por la similitud de las legislaciones.

[108] Para la legislación Norteamericana, que sufrió múltiples reformas y extensiones en los últimos 30 años, el plazo de protección de las obras depende fundamentalmente del tipo de obra y de la fecha de publicación de las mismas. En general, una vez que una obra es creada y plasmada de en una forma tangible luego del 1ro de enero de 1978, está protegida automáticamente por el término máximo de la vida del autor/es más 70 años posterior a la fecha de su muerte (o ultimo autor sobreviviente).

[109] En International Commons ya están participando muchos centros de investigación de diferentes países del mundo. Están involucrados en la traducción de las licencias institutos y diferentes laboratorios de Japón, Finlandia, Brasil, Irlanda, Italia, Francia, China, Taiwán, Reino Unido. Se estima que para el 2004 más de 25 países lograran la traducción de sus licencias.

[110] Hasta hace poco tiempo las formas de organizar los recursos informacionales en la Web han sido inconsistentes. Los metadatas han ido surgiendo a medida que la complejidad de la organización de la información se ha hecho insostenible. La infraestructura de los metadatas fueron desarrolladas y sumadas a la Web a partir del año 1998. En este sentido, puede decirse que han tenido un gran desarrollo gracias a la aparición de las aplicación P2P. El poder de las tecnologías P2P brindó la posibilidad de repensar las viejas decisiones y reinventar las formas de producir experiencias organizativas en la Web. En este cambio ha sido esencial la aparición de una nueva evolución en la arquitectura de la Web: específicamente, el cambio de HTML hacia el XML. Para más información ver el texto de Rael Dornfest y Dan Brickley (‘The Power of Metadata’) que formó parte de la 'O'Reilly Peer-to-Peer Conference’, en Febrero de 2001, San Francisco: Compilado por Andy Oram en 2001, Peer-to-Peer: Harnessing the Power of Disruptive Technologies’,

[111] HyperText Markup Language: Lenguaje de Marcatura Hipertextual.

[112] Resuorce Description Framework: Estructura o Lenguaje para la Descripción de Recursos. Los RDF integran una diversidad de aplicaciones de intercambio de contenidos en la Web. Conforman catálogos de bibliotecas, directorios, compilaciones de noticias, software y contenidos varios (música, fotos, documentos, etc.). Más información sobre RDF puede ser encontrada en http://www.w3.org/RDF/

[113] Actualmente, Tim Berners Lee sigue sus investigaciones en el Consorcio W3C encargado de liderar los proyectos de la Web a nivel mundial. Para más información, ver www.w3.org.

[114] Extensible Markup Language: Lenguaje de Marcatura Extensible. El XML es un formato de texto simple y flexible derivado del SGML y desarrollado originalmente para soportar publicaciones electrónicas y el intercambio de datos en la web.

[115] Uniform Resource Identifier: Identificador Uniforme de Recursos.

[116] Uniform Resource Locator: Localizador Uniforme de Recursos.

[117] RSS es un formato de sindicación de contenidos web y su nombre es un acrónimo de Really Simple Syndication (Sindicación realmente simple). El RSS se puede considerar un dialecto del XML.

[118] Synchronized Multimedia Integration Language.

[119] Todas las URLs citadas pueden estar sujetas a modificaciones o cambios.