LA CONQUISTA SILENCIOSA DEL CIBERESPACIO
CREATIVE COMMONS Y EL DISEÑO DE ENTORNOS DIGITALES
COMO NUEVO ARTE REGULATIVO EN INTERNET
ARIEL VERCELLI
Marzo de 2004 Ciudad Autónoma de Buenos Aires, Argentina
Copyright © 2004 Ariel Hernán
Vercelli
La presente
versión digital de
‘La Conquista Silenciosa del Ciberespacio: Creative Commons y el diseño
de entornos digitales como nuevo arte regulativo en Internet’ está
licenciada bajo una licencia de Creative Commons que permite solo
usos no comerciales de la obra y en todo momento requiere dar al creador
de la obra la atribución correspondiente. Para más información sobre
esta licencia visite la siguiente dirección de Internet:
< http://creativecommons.org/licenses/by-nc/2.0/ >
Cualquier uso comercial sobre esta obra
debe ser previamente consultado, expresamente autorizado, y exclusivamente
contratado con el autor y titular del copyright. Puede encontrar mayores
especificaciones sobre el autor y las condiciones de esta licencia
visitando:
< http://www.arielvercelli.org/ >
A los que aman la libertad.
A los que defienden sus libertades. Para aquellos que, a pesar de
abismos y cumbres, luchan silenciosamente por nuestras libertades.
A los libertadores.
Quiero agradecer especialmente a María Celeste Rodríguez López
por su apoyo y vitalidad. A mis padres Elena Emanuele y Cesar Vercelli,
a mi hermano Amilcar Vercelli, y a mis tíos Elida Penecino y Eduardo
Vercelli, puesto que sin su ayuda incondicional lo difícil podría
haberse transformado en imposible. Mi gratitud para la Lic. Julia
Buta quien supo guiarme y aconsejarme durante el transcurso de mi
trabajo. Mis agradecimientos a los profesores de la ‘Maestría en Ciencia
Política y Sociología’ de ‘FLACSO Argentina’. También a Susana Finquelievich
y las colegas del ‘Programa de Estudio sobre la Sociedad de la Información’
del ‘Instituto de Investigaciones Gino Germani’, ‘Universidad de Buenos
Aires’, con quienes compartí estos años de trabajo. Mi reconocimiento
a Alejandro Piscitelli y a los/as colegas del ‘Taller de Informática,
Telemática y Procesamiento de Datos’ de la ‘Carrera de Comunicación’
de la ‘Universidad de Buenos Aires’. Mi gratitud a la Dra. Lucía Aseff
y al ‘Centro de Estudios e Investigaciones en Derecho Humanos’ de
la ‘Facultad de Derecho’ de la ‘Universidad Nacional de Rosario’,
donde me inicié como docente e investigador. Agradezco la confianza,
el apoyo y las becas recibidas, a la ‘Agencia Nacional de Promoción
Científica y Tecnológica’ (ANPCyT) de Argentina; al ‘Berkman Center
for Internet and Society’ de la ‘Universidad de Harvard’, Estados
Unidos de Norteamérica; a la ‘Agencia Internacional de Cooperación
y Desarrollo’ (AICD) de la ‘Organización de Estados Americanos’ (OEA);
a la Agencia de ‘Coordenação de Aperfeiçoamento de Pessoal de Nível
Superior’ (CAPES) de Brasil; y a los organizadores del ‘Tercer Congreso
Mundial de Redes Ciudadanas’ realizado en Montreal, Canadá. Finalmente,
quiero agradecer a todos aquellos que de una u otra forma, directa
o indirectamente, interesada o desinteresadamente, me han ayudado
durante estos años de intenso trabajo.
La conquista
silenciosa del ciberespacio explora una de las tendencias más
profundas en el gobierno de nuestras sociedades: a saber, el cambio
de paradigma regulativo que emerge en el heterogéneo campo de las
regulaciones en Internet. El trabajo analiza las luchas, tensiones
y estrategias políticas que enfrentan la apertura y la libertad, con
la clausura y el control en las capas superiores de Internet. No descarta
las formas políticas clásicas o evidentes, sin embargo, esta más atraído
por las profundas mediaciones técnicas que regulan espacios y conductas
de forma silenciosa. Describe la emergencia de un nuevo arte regulativo
que, articulando diferentes reguladores, crea y diseña el ciberespacio
al mismo tiempo que lo regula. Muestra como este arte regulativo,
a diferencia de la reactiva regulación jurídica, se apoya en estrategias
proactivas, abiertas y transparentes, que son producidas en laboratorios
con el objeto de gobernar la tensión entre el diseño de nuevos entornos
digitales y los (re)diseños que logran los usuarios productores finales
gracias a la arquitectura simétrica de Internet. Finalmente, ausculta
el laboratorio Creative Commons, una organización-neo-gubernamental
que, a través del nuevo arte regulativo, lucha por un ambientalismo
digital creativo, diverso y libre en las capas superiores de Internet.
|
|
A) Presentación
del tema
Con la fuerza
de un destino, bajo el signo de lo irreversible, hoy más que en otros
momentos históricos presentimos que los cambios técnico políticos
de nuestras sociedades son dinámicos, constantes e irrefrenables.
Intuimos que nuestra acción política distribuida decide el futuro
de aquello que vendrá, de lo que existe hoy, de nuestro entorno sociotécnico
común. Sabemos que el ciberespacio se expande, se contrae, cambia
y evoluciona rápidamente gracias a haber desactivado el control centralizado
mediante una arquitectura de inteligencia distribuida, aunque justamente
por ello, por fortuna, no nos brinda la certidumbre de como, ni por
qué se producen estos cambios. Nos enfrentamos a una seductora complejidad
que, sin embargo, no disminuye nuestra curiosidad como investigadores,
ni desalienta la acumulación de pequeñas -pero vitales- certidumbres.
Al iniciar este trabajo, una de las certidumbres que tengo es que,
en tiempos de Internet, algunas libertades esenciales de nuestras sociedades dependen directamente
de las nuevas formas regulativas emergentes. La red de
redes que hoy conforma Internet tiene un
pasado profundo, un presente vertiginoso y, sin dudas, un futuro incierto.
Si bien no podemos asegurar como será su futuro, si estamos en condiciones
de afirmar que las regulaciones tendrán un rol fundamental para la
ecología informacional de Internet. Afortunadamente, tanto el presente
como el futuro de Internet son todavía políticamente moldeables, puesto
que la red no ha alcanzado aún un nivel de estabilidad, solidificación
e irreversibilidad que probablemente alcanzará en un futuro inmediato
si las regulaciones se vuelven dispositivos cerrados, crípticos, opacos. Algunas
regulaciones diseñaron y decidieron partes esenciales de Internet,
muchas de estas históricas regulaciones todavía hoy gobiernan silenciosamente
su presente. Mi trabajo tiene por objeto auscultar aquellas regulaciones
que, diseñadas en laboratorios, procuran hoy la conquista silenciosa
del ciberespacio. Las
formas de gobierno involucradas en esta conquista silenciosa articulan
formas regulativas clásicas junto al diseño de lo que –genéricamente- llamamos tecnología.
Esta unión entre las clásicas formas regulativas y el diseño de los
entornos digitales, puede volverse un problema político aún más grave
que aquel que observamos hoy en las formas políticas clásicas a nivel
mundial. Las regulaciones que articulan diferentes instancias políticas
con el diseño y producción de la tecnología pueden volverse regulaciones
asfixiantes, cada vez más crípticas, oscuras y menos accesibles a
la decisión colectiva. Estas regulaciones pueden transformase en dispositivos
mucho más cerrados e inaccesibles que las regulaciones jurídico clásicas
que hemos conocido hasta nuestro días. Por tanto, invito al lector
recorrer un camino sinuoso, tan fascinante como irreversible,
que describe y explora las actuales tendencias dentro del gobierno
de nuestras sociedades. Me aboco a explorar el campo de las regulaciones
en Internet, un campo heterogéneo y complejo, compuesto por nuevas formas políticas alternativas
que enfrentan la apertura y la libertad, con la clausura y el control
en el espacio Internet. Asimismo, me propongo describir la emergencia
de un nuevo arte regulativo que crea y diseña el ciberespacio al mismo
tiempo que lo regula. Nuestra
condición humana esta sostenida desde hace siglos por el desarrollo
tecnológico flexible de nuestro entramado social. Nuestras
sociedades están compuestas por cierto tipo específico de regulaciones
silenciosas que van ensamblando nuestras prácticas de una forma estable
y duradera. Puedo afirmar que todas
las regulaciones son piezas fundamentales para (de)codificar la práctica
social y su estudio permite comprender como es que nuestras sociedades
aceptan, favorecen o prohíben conductas, o bien, habilitan o restringen
el acceso a las redes electrónicas. De hecho, cualquier regulación
puede mostrarnos este horizonte complejo donde las sociedades parecen
constituirse, ensamblarse y mutar mediante procesos dinámicos. Sin
embargo, solo explorando las regulaciones en sus partes estables, silenciosas, a través
de los dispositivos que se encuentran ocultos, podemos intuir el incierto
devenir, aquel futuro inmediato que no logra diferenciarse del tiempo
presente. Para ello, es necesario captar
la dinámica de la práctica cotidiana, aquello que sucede en los extremos,
en los márgenes, aquella práctica mínima de los que producen el espacio
de una forma constante. Por ello, me he sentido atraído
por aquellas regulaciones poco evidentes, por aquellas que se hayan
ocultas, que están silenciadas. Sepa el lector que la investigación
no descarta las formas políticas clásicas y
evidentes, sin embargo, el enfoque esta atraído por las profundas
mediaciones técnicas que regulan espacios y conductas de forma imperceptible. Nuestras
sociedades están compulsivamente abocadas a controlar las posibles
e inciertas consecuencias de las prácticas sociales. La obsesión por
el control es omnipresente, aunque a decir verdad, de tan común, no
siempre logra ser percibida como tal. Esta obsesión por las respuestas
anticipadas, esta ansiedad por el control, conforma una matriz político-social
que caracteriza las sociedades capitalistas. Esta es una de las razones
por las que analizo el campo de las regulaciones en Internet, un campo
de fuertes tensiones políticas, que concentra
las decisiones pasadas y el presente de nuestra ecología informacional.
El mismo contiene las diferentes técnicas que estructuran el futuro
cultural de nuestras sociedades y de allí su importancia. El campo
de las regulaciones esta compuesto por la convergencia de técnicas
regulativas que provienen de diferentes tiempos y espacios. Este es
justamente su secreto y nuestra dificultad al momento de abordarlo.
Por ello, considero que este campo debe ser analizado desde una perspectiva
multi-disciplinar
[1]
. El lector, acertadamente, podrá intuir que no
existe manera de abordar semejante complejidad. Sin embargo, ello
no obsta a que, mediante esta investigación, pueda mostrar de forma
clara algunos de los procesos involucrados, algunas de las más importantes
consecuencias políticas de estas formas alternativas de gobierno.
Alguien tiene que dar los primeros pasos en este camino, puesto que,
como suele decirse dentro del movimiento del software libre: “si no
lo hacemos nosotros, ¿entonces quien?” El riesgo vale la pena, más aún cuando comprendemos
la importancia vital que el campo de las regulaciones tiene para nuestro
futuro común. Las sociedades discuten, defienden y se obsesionan con
la libertad justo en momentos en que las condiciones que la produjeron
comienzan a desaparecer. Todo parece indicar que esta es la tendencia
actual de Internet. Desde hace unos años la red originaria, abierta,
libre y transparente, está entrando en una etapa de clausura. Tal
vez el desarrollo futuro de Internet consolide la tragedia de los
espacio comunes, la clausura de los bienes intangibles de la mente,
el control sobre esta inteligencia conectiva común. Las
discusiones actuales en el campo de las regulaciones en Internet dividen
claramente entre, sociedades abiertas, de libre acceso, y sociedades
cerradas, de acceso restringido. Las decisiones
políticas sobre el paradigma regulativo que gobernará Internet se
encuentran en una disyuntiva entre dos modelos opuestos. Internet
esta moviéndose rápidamente, como afirman entre otros, Lessig (2001),
Stallman (2002), Boyle (2003), de
un paradigma de libertad, desarrollado a través de su arquitectura
originaria, hacia otro paradigma basado en tecnologías de control,
el que supuestamente garantizaría la seguridad y certeza necesarias
para el tráfico mercantil. El trabajo
esta abocado a auscultar estas tendencias a través de los diferentes
dispositivos técnico políticos involucrados en la regulación de la
red. Me interesa, específicamente, evidenciar la nueva forma político
regulativa que esta emergiendo en el ciberespacio. En este sentido,
me aboco no solo a la auscultación de los reguladores
clásicos, como las leyes o el mercado, sino que opto por analizar
la relación que estos tienen con la nueva codificación (code)
que, según Lessig (1999), esta construyendo y gobernando el ciberespacio.
Mi perspectiva de análisis está más atraída por las formas
regulativas ocultas, o sea, por aquellas que son silenciadas en la
práctica cotidiana y están compuestas por los dispositivos sociales
que naturalizan las normas en los extremos. Más que interesado en
las formas ficcionales de regulación jurídico clásica, en aquellas
ancladas en una lógica reactiva, me interesan las formas regulativas
proactivas, aquellas que conforman el ciberespacio tal como hoy podemos
observarlo. Me interesan las negociaciones imperceptibles, como afirma
Latour (2001), aquellas que no pueden ser abarcadas por las perspectivas
jurídico clásicas de la modernidad. Voy en busca de regulaciones profundas,
de aquellas que movilizan redes infinitas y que estructuran el mundo
mediante arquitecturas flexibles e irreversibles a la vez. Este es
el camino y en esta dirección oriento mi análisis.
B) Motivación personal y situación problemática
Si bien en un corto lapso
temporal se ha desarrollando una abundante producción escrita sobre
el campo de las regulaciones en Internet, pocos son los trabajos que
han arriesgado un marco teórico serio para abordarlo. Dichas producciones,
lamentablemente, entienden las regulaciones exclusivamente desde una
perspectiva jurídica que hoy en día se muestra obsoleta. Solo hacen
referencia a las leyes como formas regulativas, se abocan a describir
los procesos políticos clásicos y repiten acríticamente los argumentos
absurdos y falaces que las corporaciones comerciales y gobiernos nacionales
producen y reproducen a través de pánicos morales a nivel global.
Producto de esta situación el campo de las regulaciones se encuentra
con un claro déficit: es difícil en él identificar claramente las
técnicas regulativas, los objetivos, los intereses a proteger, aquellos
actores involucrados, o bien las consecuencias que las diferentes
regulaciones pueden traer a gran escala. Solo algunos pocos trabajos,
a los que me refiero a lo largo de esta tesis, han tomado el riesgo
de tentar nuevas perspectivas de análisis sobre este campo. Afortunadamente,
existen fuertes indicios que indican que estas perspectivas clásicas,
hoy ya anacrónicas, serán rápidamente dejadas de lado en el abordaje
del campo de las regulaciones. Espero que mi trabajo contribuya a
estos fines. Si el campo de las regulaciones jurídico clásicas es un área de
vacancia en las principales agencias de ciencia y tecnología a nivel
mundial, las nuevas formas regulativas, aquellas que articulan diferentes
reguladores, parecen pertenecer directamente a estudios del oscurantismo
medieval. Soy conciente de estar trabajando en un área de vacancia
y de los riesgos que ello implica. Mas aún, es justamente ésta la
razón fundamental que guía el desarrollo de mi investigación y conforma
la motivación principal que me lleva a intentar desarrollar partes
valiosas de un marco teórico que pueda aportar luz a estos procesos
crípticos a nivel global. Digámoslo directamente, estamos frente a
un riesgo histórico muy grande. Las regiones que no desarrollan tecnologías
se verán excluidas de las discusiones del campo de las regulaciones
de Internet. Esta situación se agrava aún más en los países que subestiman
el desarrollo de conocimiento científico. Solo las regiones que poseen
las condiciones para desarrollar formas regulativas complejas, aquellas
que articulan diferentes reguladores, pueden intervenir en las nuevas
formas políticas del ciberespacio. El error tantas veces repetido,
oculto, poco evidente, es subestimar el impacto que las mediaciones
técnicas tienen sobre el desarrollo de nuestras sociedades. Dicho
de otro modo, no se comprenden los procesos tecnológicos de las tecnologías
y por ello, tampoco se comprenden los nuevos procesos regulativos
basados en el diseño de entornos digitales. La situación problemática y su contexto, formulados técnicamente,
requieren del análisis histórico de las formas regulativas que gobernaron
nuestras sociedades. El derecho fue, de una forma visible y relativamente
transparente, el principal regulador dentro del campo de las regulaciones
durante muchos siglos. Sin bien la silenciosa y lenta optimización
de las normas sociales, la costumbre y otras tecnologías disciplinarias
-siguiendo a Foucault (1999)-, fueron cimentando su visibilidad, sin
dudas el derecho fue el protagonista por excelencia dentro del campo
de las regulaciones. La red interminable de actores que tenían a cargo
aquello que podríamos llamar el campo de las regulaciones -como instancia
de control de espacios y conductas- estuvo históricamente gobernada
por la arquitectura del derecho. A pesar de su reactividad, basada
en una lógica ex post facto, el derecho –específicamente el
de la modernidad- todavía es una técnica regulativa muy importante.
Sin embargo, la ubicación del derecho en la regulación del ciberespacio
esta cambiando rápidamente. Tal como la modernidad lo concibió, el
derecho no puede dar soluciones concretas a las necesidades emergentes
en la regulación del ciberespacio. El derecho moderno ha dejado huérfano
el corazón mismo del sistema capitalista al cual, durante siglos,
sirvió de regulador frente a la tan preciada seguridad jurídica. El derecho, y puntualmente sus codificaciones públicas, aparecen
hoy como una madeja llena de enredos y contradicciones vacías. A diferencia
de lo que ocurría hasta hace unas décadas, ya no puede recurrirse
a la ficcional técnica regulativa jurídica en búsqueda de la seguridad
jurídica que garantice el tráfico mercantil. Nos encontramos en medio
de una crisis política a nivel global, donde la política continúa
apegada a las técnicas jurídico discursivas de la arquitectura del
derecho moderno. Sin embargo, esta dependencia comienza a verse como
una asociación anacrónica. Anclado en generalizaciones bipolares,
el modelo político de la soberanía no desaparece, pero al igual que
ocurrió en otras épocas, necesita articularse con diferentes dispositivos
tecnológicos para estabilizar de forma durable las prácticas sociales
y, específicamente, las formas de producción, circulación y tráfico
mercantil en la red. Aunque la ley no deja de ser una de la formas
válidas de regulación, está perdiendo la potencialidad material y
simbólica que supo tener hasta hace solo unas décadas. Vemos emerger
nuevos reguladores que no desplazan completamente al viejo derecho,
pero logran dominarlo, asociarse con él, y hasta incluso robarle el
histórico protagonismo que caracterizó la creencia en su potencialidad
regulativa. Luego
de haber despotricado amargamente contra la racionalidad jurídica
moderna de las sociedades capitalistas, por los claros formalismos
que subliman las condiciones materiales de existencia, paradójicamente,
el derecho comienza a extrañarse en el mismo momento que percibimos
su metamorfosis. Lo cierto es que, como veremos en los capítulos de
nuestro trabajo, las reglas están cambiando rápidamente, y este es
solo el comienzo de un cambio profundo en la arquitectura socio-política
a nivel global. El derecho, paulatinamente, entra en un olvido de su potencialidad técnico
regulativa, producto del exponencial desarrollo tecnológico y de la
invasión del mercado hacia las esferas públicas que dominaron la tradición
moderna de acceso a los bienes culturales. En otras palabras, el desarrollo
tecnológico prescinde de partes esenciales de la construcción histórico
política que llamamos derecho. La técnica jurídica clásica solo queda
para brindar una suerte de garantía sobre lo que ya está solidificado
bajo otras arquitecturas efectivas, aquellas que penetran silenciosamente
en nuestro entramado sociotécnico. En su reemplazo emergen nuevas codificaciones privadas
que son gobernadas por el diseño de la tecnología y que reconocen
las arquitecturas (de redes) como sus instancias políticas. El campo
de las regulaciones comienza a estar gobernado por nuevas formas regulativas
que vinculan el viejo derecho con un sofisticado diseño de la tecnología.
Emerge un nuevo arte regulativo producto del exponencial desarrollo
de las tecnologías digitales que componen Internet. Este proceso se
ha vuelto, conciente y omnipresente, en momentos en que se nos presenta
como irreversible. Este cambio vertiginoso de paradigma regulativo
trae aparejados problemas que ni siquiera son percibidos como tales,
puesto que aún no se percibe la profundidad de los cambios políticos
de las última décadas. En este sentido, las diferentes situaciones
regionales en torno al desarrollo tecnológico –aquel que gobierna
el ciberespacio a través de códigos- pasan a ser esenciales para acceder
al gobierno de la red a nivel global. A pesar de la gravedad, no todos los actores involucrados perciben la peligrosidad
de estos cambios en las formas de gobierno. A decir verdad, en caso
que estos actores puedan percibirlos, no todos tendrán la posibilidad
de accionar e intervenir sobre este campo de luchas políticas. El
espacio donde se libran las batallas por la regulación de Internet
es el reino de la producción tecnológica, un reino que en partes importantes
comienza a estar dentro del campo de las regulaciones. Bajo
la lógica de producción actual del mercado global el diseño y la producción
de tecnologías soluciona, resuelve y estructura el ciberespacio antes
que los debates y las problemáticas emerjan. En este sentido, su dinámica
deja las románticas mentes modernas a la espera de un debate público
-supuestamente racional- que jamás llegará. Como bien ha dicho Lessig
(1999), quien maneje la tecnología estará directamente legislando,
o mejor dicho, estará construyendo un entorno donde circulará la vida
económica, cultural, y política de los siglos venideros. El código
que construye el ciberespacio emerge como la nueva forma regulativa
que configura la arquitectura de nuestro entorno digital. Las nuevas
regulaciones logran fundirse con el diseño de los entornos digitales
y comienzan gobernar las conductas y los espacios en Internet a través
de un nuevo arte regulativo. A un mismo tiempo, el espacio se diseña,
se proyecta y se regula; a un mismo tiempo, las conductas se regulan
y se diseña el nuevo entorno digital. El nuevo
paradigma tecnológico es el fiel reflejo cultural de las sociedades
que desarrollan la tecnología. Allí es donde, inevitablemente, este
nuevo tipo de regulaciones adquiere la importancia que le adjudico
en el presente trabajo. Lo cierto es que cada vez menos regiones pueden
efectivamente gobernar el desarrollo de las redes informacionales.
Debido a ello encontramos, por un lado, regiones, estados y corporaciones
que desarrollan tecnología y, por el otro, regiones, estados y corporaciones
que se verán incapacitadas de cierta planificación superior. En este
sentido, el panorama para América Latina es sombrío, tanto por la
falta de desarrollo de tecnología en comunicaciones para gobernar
el ciberespacio, como por la perdida de nuestra producción legislativa,
que desde hace años no logra retomar siquiera la ingenua creencia
en su potencialidad regulativa. Las nuevas formas regulativas, al
igual que el derecho y las tecnologías, comienzan a importarse desde
las regiones que las producen. Todo indica que nos hallamos en un
callejón sin salida. El campo de las regulaciones ha cambiado radicalmente
en estos últimos años, pero todavía no se percibe con claridad la
peligrosidad que estos cambios implican para las regiones menos desarrolladas
a nivel global. Creo necesario, por tanto, describir los cambios radicales en el paradigma regulativo
y explorar las tendencias actuales en el campo de las regulaciones
en Internet.
C)
Objetivos,
estructura analítica e hipótesis del trabajo
El presente trabajo posee un doble objetivo:
a) por un lado, describir el campo de las regulaciones en Internet,
las tendencias actuales que producen un brusco cambio de paradigma
regulativo y la emergencia de un nuevo arte regulativo en el ciberespacio;
b) por el otro lado, explorar las condiciones de producción de las
nuevas codificaciones digitales, las redes de actores involucrados,
las posibles soluciones a los problemas de cierre de las capas que
componen el ciberespacio y, finalmente, explorar el caso del laboratorio
Creative Commons. El trabajo se estructura analíticamente mediante
una introducción, tres capítulos bien definidos y una conclusión final.
La presente introducción intenta ser una descripción detallada, un
mapa conceptual del recorrido, donde explicito las preguntas, las
hipótesis y muestro la estructura interna del trabajo para que pueda
ser tomada, discutida y mejorada. El trabajo continua con tres capítulos
bien definidos, los que contienen el desarrollo de los objetivos y
las hipótesis intermedias de la tesis principal. Finalizo con diez
conclusiones que contienen los resultados de la exploración y algunas
reflexiones finales sobre el caso analizado en el capítulo 3. Espero
que el trabajo genere los incentivos necesarios para pensar e implementar nuevas
alternativas político regulativas sobre nuestro futuro socio-cultural común. El capítulo
primero, el más teórico de los tres, se aboca al análisis y sistematización
tanto del campo de las regulaciones en Internet como del nuevo arte
regulativo emergente. Comienzo el capítulo auscultando la profundidad de las mediaciones técnico regulativas. Luego,
en el segundo apartado, caracterizo el campo de las regulaciones en
Internet como nuevo espacio de luchas donde se acumulan las tensiones
políticas de los diferentes modelos regulativos. El tercero de los apartados lo dedico a caracterizar
y analizar los reguladores de espacios y
conductas que gobiernan el ciberespacio: los divido, siguiendo a Lessig
(1999; 2001), en reguladores clásicos (leyes, normas sociales y mercado)
y el código como regulador específico del ciberespacio. El lector
encontrará que el cuarto apartado lo dedico al análisis de las formas
de (de)codificación que posee cada uno de los reguladores clásicos.
Finalmente, caracterizo el código como regulador proactivo sobre la arquitectura del ciberespacio
y defino el nuevo arte regulativo emergente en Internet. La primer hipótesis
intermedia puede sintetizarse de la siguiente forma: el campo de las
polivalentes mediaciones técnico regulativas en Internet comienza
a ser influido por una nueva técnica regulativa que, creada bajo condiciones
de laboratorio, emerge como un nuevo arte regulativo que articula
viejas formas regulativas, pero que a diferencia de las reactivas
regulaciones jurídicas modernas, conforma una técnica proactiva orientada
hacia el diseño de los entornos digitales; esta técnica regulativa
esta gobernada por la tensión polivalente entre el diseño de nuevos
entornos digitales y los usos finales que los usuarios productores
logran del ciberespacio. El segundo capítulo, tal vez el más histórico de los tres, esta
dedicado a la política silenciosa de las arquitecturas del ciberespacio.
Comienzo el capítulo con el análisis de la arquitectura como instancia
política por excelencia dentro del ciberespacio. Luego, en el segundo
apartado, caracterizo los productores históricos, pero también los
actuales, en la estructuración del entono Internet. Dedico los tres
apartados siguientes a describir las bases de la arquitectura originaria
de la red, describiendo las tecnologías, las razones históricas y
las comunidades involucradas en su desarrollo: en estos tres apartados
analizo el packet switching, la apertura que caracterizó el
protocolo TCP/IP, y el argumento minimalista End to End (E2E).
Finalmente, en el sexto apartado, describo la composición en capas
de Internet y exploro el control que cada capa puede absorber sobre
los recursos que la componen. La hipótesis intermedia del segundo
capítulo puede sintetizarse de la siguiente forma: Internet está dividido
en capas independientes que permiten diferentes tipos de control,
siendo el control sobre las capas superiores el punto más conflictivo
en la actual regulación de nuestra ecología informacional; la arquitectura
silenciosa de Internet es la instancia política por excelencia en
el campo de las regulaciones de Internet, por lo que el mantenimiento
de algunas tecnologías que permitieron un desarrollo abierto, distribuido
y trasparente de Internet son todavía esenciales para garantizar algunas
libertades de nuestras sociedades. El tercer capítulo, tal vez el más práctico de los tres,
lo dedico a analizar el laboratorio Creative Commons como un emergente
de ambientalismo digital en las capas lógica y de contenidos de Internet.
El primer apartado indaga las codificaciones
históricas que permitieron superar la clausura de la capa lógica en
la década del 80. Luego, el segundo apartado, aborda
el cierre
o clausura en la capa de contenidos y su relación con los derechos
de autor a nivel mundial. En el tercer apartado analizo
Creative Commons como un laboratorio global que hace uso del
nuevo arte regulativo emergente para enfrentar el cierre de la capa
de contenidos en Internet. En el cuarto apartado me concentro en las
licencias de Creative Commons y, siguiendo el tema en el quinto,
me aboco al análisis de las codificaciones que produce Creative
Commons. Finalmente, en el sexto apartado, exploro las estrategias
del arte regulativo emergente en Creative Commons y las consecuencias
futuras para el campo de las regulaciones en Internet. La tercer hipótesis
intermedia puede sintetizarse de la siguiente forma: en la década
del 80 se produjo un cierre en la capa lógica de Internet, hecho que
inicio una etapa de clausura que se continúa hoy en la capa de contenidos;
solo a través de la creación de laboratorios que hagan uso del diseño
de entornos y articulen los diferentes reguladores mediante tácticas
abiertas y subvertoras se podrá superar la etapa de cierre de estas
dos capas de la red; Creative Commons, desarrollado como un
espacio abierto, cooperativo y comunitario -con una clara ideología
libertaria-, es un buen ejemplo de estos laboratorios de diseño de
entornos que, mediante codificaciones privadas, participan en el gobierno
y conquista silenciosa del ciberespacio. Luego de
la descripción de la estructura analítica y de las hipótesis intermedias
del trabajo, paso a enunciar la hipótesis principal. La misma puede
presentarse de la siguiente forma: el campo de las regulaciones en
Internet concentra desde hace dos décadas las
luchas, tensiones y estrategias políticas -llamadas genéricamente
regulaciones, o técnicamente, mediaciones técnico regulativas-, que
enfrentan la apertura y la libertad, con la clausura y el control
en las capas altas del espacio Internet; las nuevas
mediaciones técnico regulativas, a diferencia de las reactivas regulaciones
jurídico modernas, se basan en estrategias proactivas, abiertas y
transparentes, llevadas adelante por laboratorios de diseño entornos
que articulan diferentes reguladores para gobernar la arquitectura
simétrica de Internet; estas estrategias no descartan los reguladores
clásicos, sin embargo se enfocan más en el diseño de entornos abiertos
a través de códigos digitales intentando aprovechar la riqueza y diversidad
de usos finales de los usuarios productores del espacio; en este contexto
han emergido nuevas organizaciones-neo-gubernamentales que, haciendo
uso de un nuevo arte regulativo
que crea y diseña el ciberespacio al mismo tiempo que lo regula, luchan por la protección del espacio Internet,
como una nueva forma de ambientalismo digital; la tensión polivalente entre el diseño de nuevos
entornos digitales y los (re)diseños que logran los usuarios productores,
vuelve a las silenciosas normas sociales una instancia fundamental
en el gobierno del ciberespacio.
D) Metodología
y diseño de la investigación
Explorar
las tendencias actuales en el campo de las regulaciones y la emergencia
de un nuevo arte regulativo en Internet, tanto por el contexto de
la misma investigación, como por la especial condición del objeto
de estudio, no ha sido tarea sencilla. Si bien es imposible, y poco
pertinente, explicitar todas y cada una de las tareas tangenciales
que requirió el presente trabajo
[2]
, creo importante resaltar que las investigaciones
que tienen por objeto de estudio los procesos que se dan en Internet,
poseen en si mismas una alta complejidad dada por el contexto donde
el investigador debe desarrollar su trabajo
[3]
. Por tanto, al igual que ocurre con otras investigaciones
en Internet, esta investigación está destinada a conformar una tarea
inicial, exploratoria, que será continuada, optimizada y actualizada,
tanto individual como colectivamente. Internet es, a diferencia de
la escritura en libros u otros formatos textuales cerrados, un medio
que permite, facilita y promueve la apertura de los textos, la escritura
y la producción colectiva de obras culturales. Si no hubiera captado
esta condición a tiempo, los resultados de la presente exploración
hubieran sido escasos y seguramente no merecerían atención por parte
del lector. En otras palabras, si no hubiera intervenido activamente
en el campo de las regulaciones en Internet, los resultados de esta
exploración nunca hubieran captado las tensiones que definen el campo
de luchas políticas sobre nuestra ecología informacional. El gran
desarrollo y movilidad del campo de las regulaciones, junto a las
pocas pistas que el nuevo arte regulativo deja filtrar, fue uno de
los factores que volvió aún más complejo el trabajo inicial. Estas
características forman parte de la especial condición del objeto de
estudio de esta investigación. A esta dificultad se sumo la asimétrica
relación que mantienen los fenómenos descritos, la exploración de
los fenómenos más activos de la red, y los conocimientos disponibles
en habla hispana. La producción en idioma español sobre estas tendencias
es escaso y la mayor
parte de la bibliografía existente está en idioma inglés. Dada la
característica del objeto de estudio, las experiencias que merecían
análisis han sido prácticamente todas Norteamericanas. Esto se debe
a dos razones fundamentales: en primer lugar, Internet ha tenido históricamente
su epicentro en Estados Unidos de Norteamérica, por tanto, las mejores
y, tal vez las únicas-primeras experiencias interesantes para explorar
las tendencias actuales en el campo de las regulaciones, se han desarrollado
principalmente en el contexto Norteamericano. En segundo lugar, como
podrá observar el lector, me he abocado a analizar un proceso profundo
y muy actual, dejando en segundo plano los procesos de institucionalización
clásicos y evidentes de Internet. Sin dudas, esto dificultó aún más
la búsqueda de material en español, aunque como he referido, preferí
explorar el momento en que las regulaciones heterogéneas, complejas
y silenciosas, comienzan a emerger sin una forma definida a nivel
global. Paso entonces
a uno de los punto que considero de mayor importancia para la presente
investigación, o sea, a paso a mostrar el itinerario de la investigación,
las estrategias desarrolladas en el abordaje del objeto de estudio
y las diferentes opciones metodológicas que definen la perspectiva
de análisis. Entiendo que solo “mostrando el código” de la investigación,
este trabajo podrá ser tomado, analizado, criticado, mejorado, en
suma, podrá servir como un aporte sustancial a la difícil tarea de
investigar los procesos político tecnológicos de una forma clara y
transparente. Sepa el lector que esta metodología y el desarrollo
de las técnicas sistemáticas de investigación en Internet, deben ser
optimizadas, mejoradas y pensadas colectivamente. Esta metodología
ha servido a los fines de esta investigación, pero salvo algunos principios
básicos, desconozco si esta puede ser usada en diferentes contextos,
objetivos y objetos de investigación. Los trabajos científicos y sus
técnicas de análisis son perfectibles, y la comunidad académica, anclada
en la confianza del trabajo honesto, abierto y transparente, viene
optimizando sus técnicas desde hace siglos. Por ello, paso a mostrar
el “código fuente”, el itinerario y las opciones metodológicas del
presente trabajo para que sirvan de garantía para la libertad de fuentes,
la optimización y la creatividad de los futuros análisis. 1) Diseño,
metodología y unidades de análisis: la metodología utilizada para
este análisis exploratorio esta basada en un diseño cualitativo, con
el fin de favorecer la emergencia de nuevas tendencias y resultados
no previstos inicialmente
[4]
. La presente investigación posee dos unidades de
análisis: la primera unidad de análisis esta conformada por el
campo de las regulaciones en Internet, donde analizamos las diferentes
técnicas, los reguladores en juego y las tendencias actuales que producen
un brusco cambio de paradigma regulativo en Internet. La segunda unidad
de análisis está compuesta por el nuevo arte regulativo que desarrolla
el laboratorio Creative Commons, donde se muestra como se diseña
proactivamente el ciberespacio al mismo tiempo que se lo regula, intentando
generar alternativas al cierre de las capas superiores de Internet.
En el capítulo 3, siguiendo una metodología de análisis de caso, opto
estratégicamente por buscar un ejemplo donde poder encontrar referencias
concretas que avalen la hipótesis general de trabajo
[5]
. Sin embargo, es importante aclarar que ni la metodología
utilizada, ni el objeto de esta investigación, están orientados a
lograr una generalización -deductiva- de un caso hacia todos los casos
posibles dentro del campo de las regulaciones en Internet. Por el
contrario, este es un trabajo exploratorio inicial y el caso Creative
Commons debe ser interpretado como una unidad de análisis fundamental
a los fines de poner a prueba el marco teórico
[6]
. 2) Niveles
de análisis de la investigación: la composición heterogénea del
campo de las regulaciones en Internet, el análisis transversal que
requiere la emergencia de un nuevo arte regulativo y la elevada complejidad
que supone el análisis del caso Creative Commons, implican
la intervención directa de muchas más disciplinas de
las que puede sanamente abarcar cualquier investigador. Se ven involucradas
en el análisis, principalmente, la sociología, el derecho, la arquitectura, la economía
política, la filosofía
del derecho, la sociología jurídica, los estudios del control social,
la ciencia política, algunos criterios específicos y básicos de la
ingeniería en sistemas, la
informática, la cibernética, el diseño, las ciencias de la comunicación,
las artes, los estudios de la ciencia, entre muchas otras. Sin embargo, a los
fines de establecer el nivel de análisis, entiendo que el criterio
de análisis debe responder básicamente a una disciplina en formación,
que se encuentra entre la sociología del control social, la filosofía
del derecho, las ramas de las ciencias de la comunicación que están
orientadas a la ecología de los medios electrónicos y la informática
o ingeniería en sistemas. Esta disciplina, aún confusa, pero claramente
en formación, es la que debe abocarse al estudio del campo de las
regulaciones, las nuevas formas político regulativas, el control social
en sentido amplio y la emergencia de un nuevo arte regulativo en Internet.
Sin embargo, rescato en todo momento la libertad de los lectores y
usuarios finales de este texto para que cada uno pueda interpretar
y completar una visión diferente, alternativa y libre sobre el mismo
campo. Considero que muchas otras visiones disciplinarias son necesarias
para el buen análisis del complejo campo de las regulaciones en Internet. 3) Dimensión
espacio temporal de la investigación: la dimensión temporal del
objeto de estudio esta guiada por la historia de Internet, el nacimiento
de las redes electrónicas digitales a principios de la década del
60, las diferentes mediaciones técnico regulativas que por la década
del 80 comenzaron a tomar gran fuerza a nivel mundial y las problemáticas
y desarrollos masivos que por la década del 90 comenzaron a transitar
las redes digitales. Si bien el caso Creative Commons no aparece
hasta finales del 2002, las bases de las nuevas tendencias regulativas
en el ciberespacio tienen un origen profundo que puede ubicarse directamente,
como vemos en el capítulo 2, en la historia misma de Internet. La
dimensión espacial del objeto de esta investigación encuentra una
ubicación distribuida, mediante el espacio de las aplicaciones de
Internet, en las redes electrónicas de Internet a nivel mundial. La
dimensión espacial de objeto de estudio fue ganando en tamaño, distancia
y espacio a lo largo de las ultimas décadas del siglo XX a medida
que Internet se expandía y aún se expande a nivel mundial. Las dimensiones
de tiempo y espacio en Internet, y por tanto, también las dimensiones
de la presente investigación, parecen viajar juntas. Este tipo particular
de relación espacio-temporal no puede ser ajeno a la delimitación
de las dimensiones del objeto de estudio. Por tanto, en relación a
la falsa dicotomía entre espacio-tiempo real y espacio-tiempo virtual,
sin dudas, sostenemos la imposibilidad de mantener dichas categorías.
No hay consecuencias dentro de Internet que no se vean reflejadas
en el espacio, mal llamado, ‘real’. En este punto, apelo a Bruno Latour
(2001) para analizar la existencia de pliegues espacio-temporales
producidos por las mediaciones técnicas, las traducciones y las delegaciones
de funciones sobre las redes de actores-humanos y actantes-no-humanos
que componen nuestro entramado socio-técnico. Estas opciones metodológico-epistemológicas
no se volvieron explícitas hasta que puede definir las regulaciones
como mediaciones técnico políticas. El lector podrá encontrar estas
opciones en el primer capítulo del trabajo. 4) Fuentes
de Información y unidades informantes: el proceso de búsqueda,
pre-evaluación y evaluación de las fuentes de información validas
y confiables, y las posteriores selecciones de las unidades informantes
fue el proceso más engorroso y de mayor riesgo de toda la investigación.
En las exploraciones en Internet, estos pasos configuran un verdadero
arte de inmersión en las redes electrónicas. Muchas veces solo me
vi acompañado por la intuición en momentos en que solo pequeños detalles
decidieron, en primera instancia, el criterio de confiabilidad y validez
de una nueva fuente de información. Sin embargo, solo me encontré
frente a buenas, validas y completas fuentes de información una vez
avanzada la búsqueda exhaustiva en la red. Este logro significo, varias
veces, el replanteo de todo el diseño de la investigación, e incluso,
la reformulación de las hipótesis centrales del trabajo. Sin duda
he encontrado mucha información en la red, aunque, a decir verdad,
la mayoría ha sido espuria, confusa, errónea, pura habladuría, replicación
de información, buenas intenciones o directamente demagogia. Desafortunadamente,
mas que investigaciones serias, resultados estadísticos, indicadores,
fuentes confiables de información, lo que he encontrado ha sido solo
algunas pistas y pequeños retazos para armar este rompecabezas sobre
las tendencia actuales del campo de las regulaciones. En otras palabras,
he encontrado pocas fuentes de información válidas y confiables.
Inexorablemente, las unidades informantes han seguido la misma suerte
que las diversas fuentes de información. Doy lugar entonces a la descripción
de las principales fuentes de información y de algunas de las fundamentales
unidades informantes que compusieron la exploración: 4.1) Sitios
web: los sitios web han sido la fuente de información de mayor
riqueza para esta investigación. Con un horizonte profundo a cuarenta
centímetros de los ojos me he sumergido durante casi tres años en
la exploración exhaustiva del ciberespacio en busca de información
útil para componer el objeto de estudio y corresponder las hipótesis
del trabajo. He dado prioridad a los sitios web que contenían información
sobre regulaciones, reguladores, arquitecturas de Internet, producción
de software. Específicamente, he analizado las políticas y publicaciones
de los gobiernos nacionales, de las estructuras gubernamentales regionales,
y de los organismos internacionales. También he analizado las paginas
web corporativas de empresas y cámaras comerciales nacionales y extranjeras
productoras de servicios y tecnologías intentando dar con las unidades
informantes que pudieran allanar el camino. Asimismo, exploré los
sitios web de las organizaciones y corporaciones no gubernamentales
sin fines de lucro que están abocadas al gobierno del ciberespacio
a nivel global. De hecho, de esta parte de la exploración surgió el
análisis del caso Creative Commons. Finalmente, sin ser esta
una enumeración taxativa, revisé las páginas web de los institutos
de investigación de universidades nacionales y extranjeras y las revistas
y publicaciones especializadas en las temáticas regulativas, muchas
de las cuales solo se dedican al derecho informático. 4.2) Listas
de distribución de correos, foros electrónicos y boletines de noticias:
las listas de distribución de correos especializadas (mailing list),
los foros electrónicos y la suscripción a boletines de noticias informativos
han sido otras de las fundamentales fuentes de información para la
presente investigación. Las listas de distribución llegan a constituirse
en verdaderos foros de discusión sobre temas específicos. Muchas veces
en las listas y foros se recibe información fundamental sin que haya
sido solicitada por el investigador. Este ha sido mi caso en reiteradas
oportunidades, dado que sin haber solicitado información específica
a una lista, voluntariamente sus integrantes envían información pertinente
y confiable para la comunidad. Existe una conciencia muy difundida
en Internet sobre la importancia de retro-alimentar los flujos de
información valiosa en las redes. Aquí mi virtud como investigador
estuvo en ubicar la fuente válida de información, quedando luego la
nada sencilla tarea de identificar las unidades informantes clave
para establecer los criterios y las tendencias en el campo de las
regulaciones. En este punto he priorizado la suscripción a listas
de activismo digital, a foros que defienden las libertades dentro
del ciberespacio y a otras listas y boletines con información directa
sobre el objeto de estudio. 4.3) Bases
de datos y servidores públicos y privados, mediante aplicaciones par-a-par
(P2P) y búsquedas vía FTP (File Transfer Protocol): la búsqueda
de información descentralizada tanto en servidores y bases de datos
públicas, como privadas, mediante las aplicaciones par a par (P2P),
o bien de acceso vía FTP, ha sido -sin dudas- la fuente de información
más caótica, pero también la más interesante de toda la investigación.
A pesar de su conformación anárquica, estas fuentes de información
ubicadas en servidores nacionales o extranjeros no han sido menos
importantes para la investigación. La nota saliente al momento de
tomar las aplicaciones de arquitecturas P2P como fuente de información
esta dada por la reversibilidad en la jerarquización entre clientes
y servidores que ellas permiten. Mediante estas aplicaciones los usuarios
de Internet pueden compartir parte de la información privada que se
encuentra en su computadora. Mediante el acceso a servidores vía FTP
pude encontrar materiales insólitos, sorprendentes, valiosos, escasos,
y demás rarezas, de donde obtuve información útil, borradores, documentos
de trabajo, informes, presentaciones, que no se encuentran en la publicación
clásica de una pagina web. Si bien muchas veces la información a la
que accedí mediante las aplicaciones P2P, o bien vía FTP, no estuvo
firmada, o pudo vincularse indubitablemente con su/s autor/es, metodológicamente
estas fuentes de información fueron imprescindibles para el trabajo
exploratorio. De hecho, considero que estas búsquedas exploratorias
tienen que ser un paso obligado para todos aquellos que tengan como
objeto de estudios temáticas relativas a Internet. 4.4) Weblogs:
los weblogs, por su estructura y especificidad, han sido fuentes valiosas
de información técnica. Los weblogs de comunidades virtuales, o bien
aquellos corporativos –a diferencia de aquellos personales o autobiográficos-,
generalmente están especializados por temas, son técnicos, de alta
movilidad de información y, por lo general, contienen información
actualizada. Por su capacidad de publicar instantáneamente los materiales
y opiniones de los autores / lectores de una comunidad, los weblogs
se han transformado en poco tiempo, como bien afirma Candeira (2001),
en una memoria colectiva que contiene las ultimas tendencias sobre
temas específicos. En este sentido, he analizado solo los weblogs
que parecían pertinentes a la hipótesis del trabajo. Los weblogs me
han dado la posibilidad de ir publicando el material avanzado de esta
misma investigación y, por ello, recibir devoluciones tanto publicas
-en el mismo weblog-, como privadas -vía e-mail-, que han contribuido
sustancialmente a enriquecer el análisis final del trabajo. Los weblog
(más aún los auto-moderados o aquellos que tienen filtrados colaborativos)
dan la posibilidad de referenciar y comentar tanto los contenidos
de una nota principal clásica, como los debates-diálogos que los lectores
/ autores hacen públicos. Muchas veces la mejor información, y la
posibilidad de identificar las mejores unidades informantes, la encontré
en la parte de los comentarios que los mismos miembros de una comunidad
van haciendo. La fusión de la clásica categoría de autores y lectores,
sumada a las formas abiertas de participación y moderación, vuelve
a los weblogs una fuente inagotable de recursos actualizados y específicos. 4.5) Postgrados
a distancia y semipresenciales sobre regulaciones: los postgrados
de corta duración basados en una metodología de educación a distancia,
con o sin una instancia presencial, han sido una fuente importante
de recursos validos y pertinentes para el objeto de estudio. Particularmente,
tuve oportunidad de hacer dos postgrados sobre regulaciones durante
el transcurso de mi investigación
[7]
. Los materiales producidos por estos cursos se
encuentran en la bibliografía y publicados en diferentes partes de
Internet. Estos cursos me brindaron un marco propicio para establecer
criterios compartidos con colegas de toda América Latina y del mundo,
a través de los foros de discusión para participantes, donde tuve
la posibilidad de compartir materiales y discusiones con especialistas
de todas partes del mundo. Los buenos cursos a distancia, y aún más
los semipresenciales, dan la posibilidad de plantear problemáticas,
de realizar comentarios y mantener discusiones con colegas y tutores.
Esta labor fue esencial para sacar dudas, o bien discutir algunos
puntos salientes de mi trabajo. 4.6) Congresos,
seminarios, jornadas e intercambios académicos: el intercambio
con investigadores y docentes colegas ha sido vital para el desarrollo
de esta investigación. He participado en la organización de congresos,
he organizado eventos sobre redes comunitarias
[8]
y seminarios sobre la temática de las regulaciones
en Internet. Tanto como ponente, organizador o simple participante
de eventos presenciales o semi-presenciales, tuve oportunidad de intercambiar
información, realizar entrevistas y discutir partes de la hipótesis
general de trabajo. Estas instancias han sido importantes para la
recopilación de datos vitales para el trabajo. Asimismo, en oportunidad
del ‘Internet Law Program 2003’, tuve la posibilidad de realizarle
una breve entrevista abierta a Lawrence Lessig, quien es actualmente
el director de Creative Commons y uno de los más reconocidos
especialistas en la temática de las regulaciones a nivel mundial.
En oportunidad del ‘Tercer Congreso Mundial de Redes Ciudadanas’
realizado en Montreal, Canadá, tuve oportunidad de presenciar una
larga exposición y participar de un interesante intercambio con Richard
M. Stallman, Fundador de la Free Software Foundation. En este
mismo sentido, tuve oportunidad de contactarme con James Boyle cuando
visitó la Argentina en el mes de Octubre de 2003. Boyle es también
fundador de Creative Commons, y uno de los mejores especialistas
en materia de Propiedad Intelectual de los Estados Unidos. Ha sido
también muy importante trabajar, compartir y requerir información,
recomendaciones y sugerencias en los ámbitos de trabajo académico
[9]
. 4.7) Fuentes clásicas de información: por
último, por fuentes clásicas de información quiero significar el trabajo
pedestre que he realizado en la investigación. En bibliotecas públicas
y privadas, he desarrollado un análisis bibliográfico exhaustivo sobre
libros y publicaciones impresas de los autores que tratan estas temáticas
a nivel global. He conseguido también valiosa información dentro de
organismos de gobierno a nivel nacional, como el Ministerio de Economía
y el Fondo Nacional de las Artes, ambos de la República Argentina.
He tenido acceso a leyes, decretos, jurisprudencia, programas y políticas
publicas nacionales, entre infinidad de otros material. También he
revisado gran parte de la producción legislativa y las diferentes
políticas públicas que se han desarrollado a nivel global sobre la
regulación del ciberespacio, aunque me he detenido más en la Unión
Europea y en los Estados Unidos de Norteamérica. He obtenido información,
en materiales no digitales, de diferentes organismos de Naciones Unidas,
como también de empresas de telecomunicaciones y cámaras nacionales
involucradas en el tráfico de información en la Argentina. 5) Técnicas
e instrumentos utilizados en la investigación: como el lector
puede advertir, la mayoría del trabajo de campo se ha basado en búsquedas,
entrevistas e intercambios no estructurados vía e-mail, en exploraciones
dentro de Internet y en intervenciones concretas dentro de comunidades,
foros, listas de distribución y publicaciones y comentarios dentro
de weblogs. En las instancias presenciales, entrevistas, cursos, jornadas
y encuentros, he usado técnicas de observación y técnicas de entrevistas
no estructuradas. Sin embargo, gran parte del desarrollo de técnicas
e instrumentos para la investigación han sido nuevas y he tenido que
capacitarme y utilizar la imaginación para resolver varios cuellos
de botella a lo largo de mi trabajo. Específicamente, he tenido también
que: (a) buscar la mejores herramientas que den acceso a los recursos
en Internet, como el caso de las aplicaciones P2P o el acceso a servidores
vía FTP, traductores o aplicaciones específicas para búsquedas en
la web; (b) he tenido que bajar aplicaciones de la red e instalarlas,
en la computadora personal que utilice para realizar el trabajo de
campo y debí capacitarme en usos y buenas prácticas sobre estos programas;
(c) he tenido que identificar los mejores motores de búsqueda, directorios,
multi-buscadores y meta-buscadores en la web, configurar alertas,
reminders (recordatorios) y aviso de actualizaciones de páginas pertinentes
al objeto de estudio y configurar programas y aplicaciones según criterios,
operadores lógicos, frases, palabras claves y filtros, para obtener
una mayor exactitud en las búsquedas en la web; (d) tuve que identificar
las listas de distribución, los foros y boletines de noticias, los
servidores y configurar alertas, reminders (recordatorios) y formas
de distribución. En este punto, debo aclarar que me he dado de alta
en varias listas nacionales, regionales y globales, y he hecho un
seguimiento diario (o semanal, según el caso) de sus contenidos, intereses
y discusiones, con el fin explorar las tendencias actuales en el campo
de las regulaciones. La suscripción a listas y boletines, ha sido
una técnica esencial, desde la perspectiva de esta estrategia metodológica;
(e) tuve que desarrollar, diseñar, configurar y organizar pequeñas
herramientas específicas para la obtención y administración de la
información obtenida en la exploración y específicamente, para mantener
aquellos registros históricos de la web que paulatinamente iban desapareciendo;
he tenido que desarrollar un archivo digital propio a tales efectos.
6) Análisis
de la información: para el análisis y aprovechamiento de la información
obtenida he utilizado la triangulación y el principio de complementariedad
tanto de fuentes de información, como de unidades de información.
Solo gracias a la recolección detallada de pequeñas fuentes de información,
a los intercambios, las críticas e intervenciones sobre las mismas
fuentes y a la selección minuciosa de las unidades informantes, fue
posible el armado y la de-codificación racional del complejo rompecabezas
sobre las regulaciones silenciosas del ciberespacio. He triangulado
las técnicas descritas con diferentes solicitudes de información e
intervenciones en el campo a través de los mismos espacios y herramientas
electrónicas que describimos en los puntos anteriores. En todo momento
he hecho interactuar esta información con casos concretos que puedan
ayudar a esclarecer nuestra hipótesis de trabajo. Muchas veces he
interpretado un gesto, una sugerencia, una actitud, con el mismo valor
que le otorgué a cualquier otra fuente, puesto que la mayoría de estas
muestras han significado un claro componente cultural cercano a la
ética hacker y por ello, en ningún momento descarté la utilización
de pequeñas técnicas ad-hoc para la construcción y exploración
de nuestro objeto de estudio. En todo momento, he tratado de captar
las lógicas subyacentes más que el nivel de las respuestas explícitas,
puesto que el objeto de la investigación intenta dar cuenta de un
emergente, muchas veces silencioso, en el campo de las regulaciones
del ciberespacio.
Las regulaciones en Internet conforman un campo de complejas tensiones
políticas sobre la ecología informacional de nuestras sociedades.
En el ciberespacio convergen antiguas técnicas regulativas y novedosas
formas de configurar el tiempo-espacio. Comienzo el primer capítulo
analizando el marco teórico conceptual necesario para comprender las
regulaciones y las tendencias actuales en su campo de acción. El presente
capítulo esta dividido en cinco ejes principales. El primer eje desarrolla
el concepto político de regulación como mediación técnico regulativa.
El segundo delimita el campo de las regulaciones y describe las luchas
y tensiones dentro de Internet. En el tercero me aboco a la descripción
y presentación de las diferentes técnicas regulativas a las que doy
el nombre de reguladores. En cuarto lugar (de)codifico los reguladores
clásicos y analizo la relación que éstos tienen con la sistematicidad,
la seguridad (jurídica) y la previsibilidad necesaria para el trafico
mercantil. Finalmente, caracterizo el código como regulador y establezco
las bases del nuevo arte regulativo emergente en el ciberespacio. A) La profundidad de las mediaciones técnico regulativas
Las infinitas regulaciones con las que convivimos
diariamente conforman una parte vital para el funcionamiento de nuestras
sociedades. Sin importar el tiempo-espacio de donde provengan, o cuan
presentes están en nuestra conciencia, las regulaciones -desde hace
siglos- intervienen nuestras mentes, sujetan nuestros cuerpos y median
la acción dentro de nuestras sociedades. Las regulaciones poseen la
típica diversidad
[10]
de los dispositivos que concentran las luchas y
tensiones políticas a lo largo de la historia. Son formas de ordenar
y clasificar el mundo, aunque, a decir verdad, estos procesos regulativos
no siempre son concientes y racionales como supone la estructuración
socio-política moderna. En este sentido, algunas regulaciones se transmitieron
oralmente desde hace miles de años, otras se escribieron sobre piedras,
mientras que otras se codificaron a través de sofisticadas tecnologías
[11]
. Donde existe una regulación existe un mundo que
puede descubrirse en las profundidades de sus mediaciones sociales.
El sentido común vincula acertadamente las regulaciones con leyes
referidas a la circulación de bienes dentro de mercados. Sin embargo,
para poder comprender el concepto de regulaciones, al inicio de esta
investigación, debo decir que las mismas siempre involucran procesos
más complejos que el mero tráfico mercantil. En otras palabras, las
regulaciones hacen posible el contexto socio-político que permite
la existencia de lo que hoy llamamos mercados. Es necesario, por tanto, superar el concepto
desnudo e ingenuo de regulaciones para poder analizar la profundidad
que el concepto implica para el presente trabajo. Retomando algunas
ideas de Latour (1991), las regulaciones son una especie de proliferación
de híbridos, o sea, composiciones y asociaciones de elementos heterogéneos,
pertenecientes tanto a la esfera de lo humano como a la esfera de
aquello que llamamos clásicamente lo artificial, lo no-natural, aquello
que es construido socialmente y que no corresponde a la esfera de
la ‘naturaleza de las cosas’ que supo construir la modernidad
[12]
. El análisis de las regulaciones, debido a su heterogénea
y diversa composición, nos obliga a desplazarnos velozmente por mundos
sin correlación aparente. Cuando analizamos las regulaciones, por
ejemplo, viajamos de las tecnologías par a par (P2P)
[13]
del caso RIIA
[14]
vs. Napster
[15]
, al panóptico de Jeremy Bentham, atravesando diferentes
tipos de codificaciones, desde las jurídico-discursivas hasta las
más sofisticadas e irreversibles configuraciones socio-técnicas de
nuestro entramado social. Las regulaciones alcanzan la fibra íntima
de cualquier sistema e implican, en todo momento, opciones tanto políticas
como técnicas. Las mismas Involucran las redes de actores fundamentales
de cualquier sistema y tienen la función de anticipar-gobernar las
situaciones futuras. En este sentido, las regulaciones son dispositivos
técnico políticos que tienen por objeto lograr una estabilidad perdurable
en el tiempo a través del control de conductas y espacios. Las regulaciones forman parte de las instancias
políticas de control que conforman un espiral ascendente en busca
de la ‘supuesta perfectibilidad’ socio-técnica de nuestras sociedades.
Para la hipótesis de este trabajo, las regulaciones son mediaciones
técnicas que conforman heterogéneos dispositivos políticos provenientes
de diferentes tiempos y espacios. Técnicamente hablando, entiendo
las regulaciones como ‘mediaciones técnico regulativas’ (MTR)
[16]
. El concepto de mediación aparece como el primero
a ser definido puesto que me permitirá continuar con la construcción
mayor de las MTR. El concepto de mediación, a diferencia de las meras
intermediaciones, indica la existencia de un dispositivo mediador
que se encuentra enlazando diferentes instancias o momentos, y que
por su mera acción cambia la calidad de aquello que compone. La mediación
conforma una comunicación, una negociación, una asociación entre diferentes
redes de actores-humanos y actantes-no-humanos, que en todo momento
implica decisiones, intervenciones, cambios de calidad y de cantidad
en la composición de las redes que enlaza. El segundo componente de
nuestra construcción, el concepto de ‘lo técnico’, indica la composición
de estas mediaciones, o sea, la composición del entramado social o
socio-técnico. Lo técnico, más que lo tecnológico, indica la presencia
de redes compuestas por una serie de elementos heterogéneos, tanto
animados como inanimados, tanto presentes como pasados, que crecen,
se necesitan y se producen recíprocamente. Lo técnico implica siempre
la presencia de aquello que es político, de aquello que, mediante
redes de actores-humanos y de actantes-no-humanos, compone nuestro
entramado social. En otras palabras, el actante-no-humano, siguiendo
a Latour (2001), es todo aquello que pueda actuar o influenciar los
espacios y las conductas. El actante-no-humano se define por sus actuaciones,
o sea, incluye todo lo que pueda actuar -de una u otra forma- sin
distinciones esencialistas. Los actantes-no-humanos, al igual que
los actores-humanos clásicos, poseen programas, metas y objetivos,
pero a diferencia de éstos, los actantes-no-humanos poseen una invisibilidad
(epistemológica) que recubre sus redes, sus actuaciones y por tanto,
sus mediaciones. Sin embargo, a pesar de su aparente invisibilidad,
de la negación de su interacción social, las actuaciones e intervenciones
de estos actantes sobre el entorno son concretas y sostenidas en el
tiempo. Por tanto, la ‘mediación técnica’, puede definirse como una
forma humana antiquísima de acumulación y codificación sociotécnica.
La misma es tributaria
de la fascinante experticia social desarrollada tras miles de años
de relación con nuestro entorno. Este relacionamiento profundo de
las mediaciones técnicas ha vuelto indistinguible la composición de
las redes que forman nuestro entramado sociotécnico. En este sentido,
la mediación técnica es una forma de acción colectiva-asociativa que
concentra la flexibilidad para crear y re-crear, para delegar bajo
formas estables y para movilizar lo hecho junto a otras redes de actores
humanos y actantes-no-humanos en otro tiempo-espacio.
[17]
Esta definición pretende hacer visibles y reivindicar
las redes de actantes-no-humanos, único camino posible para comprender
la entidad política que plantean las MTR para nuestras sociedades. El último componente de mi construcción sobre
las MTR esta compuesto por lo regulativo, por el concepto de regulación.
El concepto de regulación (del latín regulare) expresa la tendencia
hacia aquello que debe ser reglado, medido, ajustado, vuelto a la
regla, puesto en orden, transformado, traducido hacia algo nuevo.
El concepto ‘regular’ indica una situación que se encuentra entre
los extremos, en una posición balanceada, que tiende a un punto medio.
Las regulaciones llevan en su interior el impulso hacia la normalización
de situaciones supuestamente desajustadas o con alta probabilidad
de desequilibrio. La presencia más o menos visible de una regulación
lleva siempre implícita la existencia de alguna entidad-constructo
(valores, alma, cuerpo, sujeto, colectivo, sociedad, naturaleza) que
necesita ser dirigida, controlada, corregida, equilibrada, balanceada,
en suma, que necesita ser dominada hasta ser transformada en el producto
de la misma intervención
[18]
. Por tanto, entiendo que las MTR son dispositivos
técnicos que buscan enlazar, asociar, intervenir, de forma política,
las diferentes redes de actores-humamos y actantes-no-humanos con
el objeto de controlar y regular las consecuencias que dicha intervención
tendrá sobre el entramado socio-técnico en nuestras sociedades. Las MTR son dispositivos técnico políticos
que componen nuestro entramado social. Los asociaciones, arquitecturas,
codificaciones o tecnologías que estas regulaciones favorecen, permiten
o prohíben, son desde hace siglos parte fundamental de nuestra capacidad
de vivir en inmensos colectivos socio-técnicos. De allí la importancia
de las MTR y la profundidad que las mismas implican. Las MTR (o en
adelante, simplemente regulaciones) se encuentran, sin ubicación fija,
donde se atraen recíprocamente las relaciones cotidianas de poder.
Las MTR conforman un campo de luchas que contiene las tensiones políticas
sobre el diseño futuro de nuestro entorno socio-técnico y son parte
de las luchas constantes entre aquellos que se ven potencialmente
favorecidos por una situación concreta y aquellos que se hallan fuera
del supuesto circulo virtuoso que propone la situación ideal. Estas
tensiones políticas son, como bien afirma Lawrence Lessig (2001),
parte de una lucha entre lo viejo que quiere perdurar y lo nuevo que
quiere emerger. En este sentido, las regulaciones se ubican en el
espacio que une y enfrenta las multiformes relaciones de poder con
las asimétricas pero infinitas estrategias de lucha. Por esta ubicación las MTR están caracterizadas
por una propiedad fundante: su polivalencia. Todas las regulaciones
son, en principio, polivalentes. La polivalencia de las MTR indica
la flexibilidad de un dispositivo técnico multiforme y funcional a
distintos posicionamientos tácticos dentro de un campo de luchas.
Todas las regulaciones poseen esta ambigüedad constitutiva que las
convierte en una oportunidad latente de alteridad. Esta característica
fundante subsiste siempre con independencia de la reversibilidad de
las situaciones concretas de la práctica cotidiana. En este sentido,
a pesar de su polivalencia, las regulaciones pueden tornarse irreversibles
y pasar a funcionar, no como estructuras de asociación - cooperación,
sino como estructuras de dominación. Este cambio de calidad hacia
la (ir)reversibilidad que una regulación puede favorecer, dependerá
necesariamente de la cantidad, calidad, extensión, estabilidad y arquitectura
que alcance el entramado asociativo que sostiene la práctica de dicha
regulación. En este sentido, las regulaciones dependen de las acciones,
las decisiones, las valoraciones y los usos finales que llevan adelante
las redes de actores-humanos y actantes-no-humanos que las soportan.
Por tanto, las regulaciones se nos presentan como la instancia de
reversibilidad-irreversibilidad del tiempo-espacio social. Finalmente, debo decir que las MTR pueden aparecer
como un proceso abierto, participativo, claro y transparente. Sin
embargo, es importante resaltar que cualquier regulación, si mantiene
una cierta efectividad en la intervención, es producto de un largo
proceso que la práctica ha transformado en un dispositivo opaco que
requiere ser auscultado, penetrado por el análisis científico, por
una especie de ingeniería social reversible orientada hacia el pasado
del dispositivo. Nuestros entramados sociales
poseen partes vitales que, de
tan necesarias e imprescindibles, se hallan ocultas, invisibles, silenciadas.
Sobre ellas funcionan profundas MTR que las transforman en dispositivos
con una fuerte carga de irreversibilidad. Bajo estas circunstancias,
las regulaciones emergen como dispositivos opacos, crípticos, que
esconden su funcionamiento, por lo que muchas veces estas pueden ser
caracterizadas como cajas negras. Cuando las regulaciones funcionan
como cajas negras, por un lado, nos vemos alejados de la compleja composición interna
de cualquier dispositivo técnico, y por el otro, nos acercamos a la
estabilidad durable en el tiempo pretendida por toda MTR. En este
sentido, las regulaciones
mas eficaces, aquellas invisibles, silenciosas y, por ello también
más irreversibles, forman parte del futuro inmediato donde el orden político queda traducido, aunque muchas veces, también
subvertido. Sin embargo, el campo que contiene las MTR esta
atravesado una la tensión originaria entre la apertura y la clausura
de estas mediaciones técnicas. Esta dividido entre modelos que permiten
intervenir con mayor o menor libertad en las MTR y modelos que -a
la espera de una ‘supuesta’ estabilidad y seguridad- pretenden cerrar
las cajas negras que contienen las MTR. Nos enfrentamos a la posibilidad
de constitución de regulaciones compuestas colectivamente, donde muchos
pueden aportar y decidir sobre el futuro del entramado sociotécnico,
o bien, nos enfrentamos a dispositivos regulativos cerrados donde
la intervención de múltiples actores con posibilidad política sobre
el campo de las MTR es limitado y altamente controlado. A medida que
nuestro entramado sociotécnico crece, más complejas se vuelven nuestras
asociaciones y, por ende, más alto es el riesgo frente al cierre de
las cajas negras que contienen las MTR de nuestro relacionamiento
socio-técnico. Este punto es esencial,
tal vez el más importante, para comprender la dinámica actual del
campo de las regulaciones en Internet, dado que este espacio está
atravesado por tensiones entre diferentes modelos evolutivos que luchan
por la libertad y el control, la apertura y la clausura del ciberespacio.
B) El campo de
las regulaciones en Internet
El campo
de las regulaciones en Internet (CRI) forma parte de los recuerdos
del futuro, tanto por las promesas que lleva implícitas, como por
la especial temporalidad que gobierna su espacio. Este campo está
compuesto por profundas y polivalentes MTR, tanto pasadas como presentes,
que unen las heterogéneas redes de actores-humanos y actantes-no-humanos
con la intención de gobernar la consecuencias futuras de nuestras
sociedades. El CRI no es un campo al que podamos ubicar y delimitar
con exactitud, mejor dicho, es un espacio móvil compuesto de diferentes
MTR, tanto presentes como pasadas, que penetran y colonizan otros
campos. Específicamente, el CRI aporta a otros campos las mediaciones
técnico políticas que permiten el control a distancia y a través del
tiempo. El CRI posee una tensión originaria y permanente entre el
diseño y los objetivos de las polivalentes MTR y los resultados efectivamente
alcanzados luego de cualquier intervención en un campo de luchas.
Estos resultados, en cualquier proceso mediado por la técnica, quedan
en manos de las redes de usuarios finales, o sea, en manos de diferentes
redes que podemos llamar corporaciones, empresas, universidades, estados
y usuarios-finales. Por tanto, la interrelación dinámica entre estos
dos momentos, está gobernada por los usos-finales de las redes que
soportan las MTR. Como
ningún otro, el CRI esconde una oscura tendencia
hacia la supuesta perfectibilidad socio-técnica, y por ello, tiene por objeto
el control social en sentido amplio. El capital en juego dentro del
CRI es, básicamente, el control social referido a la imposición de
una visión recta, ordenada y eficiente del mundo. Cuando
refiero al control social, estoy indistintamente indicando el control directo
de una intervención, así como el control indirecto que puede actuar
por mediación, delegación, o por infinidad de usos y resistencias
inconscientes. De forma amplia, me refiero al control que permite
y construye espacios, pero también al que prohíbe y restringe los
mismos. La sola pregunta sobre la necesidad o no de controlar determinada
situación es ya una instancia de control en si misma. En otras palabras,
me refiero tanto al control social básico, operativo y necesario que
construye sociedades abiertas y libres, como al control que construye
sociedades cerradas, de clausura, de vigilancia. Debido a la amplitud
del control social, las consecuencias políticas de las MTR son ineludibles
y este campo puede ser descrito como un campo no-voluntario. Sus intervenciones,
objetivos, metas y técnicas, tienen efectos tanto por acción como
por omisión y se producen con independencia de las voluntades individuales
o colectivas. Si bien
existen diferentes tipos y grados, el control funciona como una espiral
ascendente e irreversible. La obsesión por el control
[19]
y la vigilancia
[20]
que caracteriza a nuestras sociedades, es también
la obsesión por la evitar del riesgo siempre presente dentro de entornos
cada vez más complejos. La retroalimentación entre la obsesiva evitación
del riesgo y la complejidad creciente del entorno sociotécnico, sin
dudas, conduce a un incremento en los dispositivos que favorecen e
incrementan el control social dentro del CRI. Esta espiral en aumento dentro del CRI tiene razones
técnicas muy claras. Las MTR han estado siempre dirigidas a lograr
mayor estabilidad mediante delegaciones de funciones en ensamblajes
de actores-humanos y actantes-no-humanos. Desde el momento en que, como actores-humamos utilizamos
redes de actantes-no-humanos y delegamos funciones en redes de tecnología,
estamos asociándonos para conseguir mayor estabilidad y certeza en
el relacionamiento social. Como afirma Latour (2001), una relación
social estable implica la introducción de mediaciones técnicas, o
sea, el reclutamiento de actantes-no-humanos, para establecer un entramado
asociativo estable y perdurable en el tiempo
[21]
. Cuando
estamos en presencia de mediaciones técnicas es el orden y el control,
como clásicos de la política, los que logran emerger a través de los
diferentes dispositivos tecnológicos. Esto puede observarse directamente
cuando delegamos funciones en redes de actantes-no-humanos dentro
del entramado social. Las delegaciones, buscan ganar estabilidad para
la función delegada y, paradójicamente, se transforman en los dispositivos
que, de forma poco evidente, sostienen la acción de los actores-humanos
clásicos. La delegación de funciones en redes de actores-humanos es
siempre flexible, costosa y contingente. Por el contrario, la delegación
de funciones sobre redes de actantes-no-humanos es menos flexible,
posee costos decrecientes y es más estable. Por lo tanto, la delegación
de funciones en redes de actantes-no-humanos produce una traducción
móvil de metas y objetivos mucho más efectiva que las siempre conflictivas
delegaciones de funciones entre actores-humanos. Por ello, el CRI
está atraído por la efectividad, eficiencia y perdurabilidad de los
diferentes dispositivos técnico regulativos que pueden subvertir la
política integrándola en aquello que denominamos genéricamente tecnología.
Este tipo de asociación-delegación es una especie de conversión estable
de lo inmóvil en móvil. Forma parte de un adiestramiento de los actantes-no-humanos
que permite, a su vez, un adiestramiento posterior de los actores-humanos. La relación
entre nuestro entramado social, las MTR y el control es una relación
íntima y constitutiva, presente tanto en la cotidianeidad relacional,
como en la planificación política a nivel mundial.
[22]
Si no existiera delegación en actantes-no-humanos
el control solo se daría en un nivel inmediato, local, y en un presente
más que efímero
[23]
. En este sentido, el control a distancia depende de
la creación de una red de actantes-no-humanos fijos, dóciles, estandarizados,
que hace posible la circulación, la traducción de información y la
estabilidad de una red
[24]
. El diseño y desarrollo de tecnologías implica
necesariamente una tendencia a extender, restringir o re-configurar
el control a distancia
sobre nuestras sociedades. Las tecnologías son cada vez más importantes como formas de traducir, ordenar
y regular el mundo. Aunque no tengamos constantemente presente esta condición,
el control a distancia es una de las razones por las que socialmente
se desarrollan tecnologías y se delegan funciones en actantes-no-humanos.
Desafortunadamente, durante muchos años la proliferación de híbridos
en la conformación de nuestro entono sociotécnico no ha sido considerada
una técnica regulativa. Sin embargo, esta situación está cambiando
rápidamente con los nuevos emergentes en el CRI, los que muestran
claramente como la tecnología es generadora y reguladora de los entornos. El diseño
de entornos aparece como un proceso opaco, muchas veces inconsciente,
producto justamente de la invisibilidad de nuestra condición sociotécnica
compartida entre actores-humanos y actantes-no-humanos. El diseño
de entornos forma parte de la construcción de una especie de biosfera
artificial, de un nuevo proceso que puede llamarse, según Gubern (2000),
el arte de entornización de nuestra vida cotidiana
[25]
. El diseño de entorno tiene la pretensión
de adecuar el ambiente a un conjunto de reglas y relaciones en prefecta
armonía. Este viejo arte constituye una verdadera ingeniería social
al mejor estilo positivista, una ingeniería política -típica del siglo
XX- donde se crean espacios y se modelan conductas
[26]
. El diseño de entornos se apoya en el concepto
de arquitectura y encuentra en la técnica un proceso de mediación
y delegación. A pesar que el CRI es un espacio móvil y difícil de
ubicar, el diseño de entornos tiene centros de trabajo claros y bien
definidos. El diseño y producción de los entornos, preferentemente
aquellos que son digitales, se ubica en laboratorios. Los laboratorios
son dispositivos que logran superar fácilmente las coordenadas de
tiempo espacio y transformar materiales con potencial para el control
local (solo manipulables dentro del laboratorio) en materiales relativamente
móviles, bajo control global y durables en el tiempo. El efecto
típico de los laboratorios es la estabilización que conlleva que un
enunciado cualquiera escape de las referencias de su construcción-producción
[27]
. Los laboratorios trabajan bajo condiciones controladas
a nivel de escala local para lograr mediaciones y delegaciones que
aseguren un control en una escala superior, o sea a distancia y a
través del tiempo. Siguiendo a Latour y Woolgar (1995) y a Latour
(1983; 2001; 2002), el laboratorio aparece como el lugar que permite
olvidar el tiempo, el espacio, las escalas; aparece como el espacio
que logra disolver la dicotomía dentro-fuera y, por tanto, destruir
las diferencias de escala entre lo micro y lo macro. El laboratorio
es un conversor de fuerzas, una instancia de mediación técnica, que
debe unir lo que se considera que esta dentro, bajo condiciones controladas,
con aquello que supuestamente esta fuera de este entorno. La actividad
del laboratorio es la continuación de un campo de luchas agonal en
el que se continua la política por otros medios. En este sentido,
hablo de los laboratorios como lugar político donde son paridos, tanto
lo natural como lo social, pero también lo político y lo cultural.
La magia de la oscura conquista, la silenciosa conquista, recorre
cada uno de los rincones de los laboratorios. Los laboratorios son espacios de creación, negociación, asociación
y delegación. Cuando un hecho es construido y naturalizado en un laboratorio
resulta prácticamente imposible asociar nuevos aliados para derrumbar
aquella secuencia estable. La irreversibilidad dependerá entonces
del costo elevado que los mismos laboratorios poseen y de la cantidad
redes de actores-humanos y de actantes-no-humanos que soportan el
entramado asociativo de aquel hecho. Por tanto, para contrarrestar
la producción de un laboratorio es necesario construir contra-laboratorios
(Latour; 1997). En este punto, la inevitabilidad del control de nuestras
sociedades encuentra su virulenta contraparte en un elemento aún más
radical, materializado en la imposibilidad de prever los resultados
que dicho control tendrá sobre las instancias intervenidas. Afortunadamente,
nadie puede prever cabalmente los resultados que una regulación tendrá
en un entorno de luchas complejo y en movimiento. Constantemente están
apareciendo consecuencias imprevistas, indeseables o directamente
el azar. A las polivalentes MTR se suma entonces la tensión originaria
y permanente entre los objetivos del diseño original de los dispositivos
técnico regulativos y los resultados efectivamente alcanzados luego
de cualquier intervención en un campo de luchas. Ambas instancias
están, definitivamente, gobernadas por los usos-finales e intereses
de las redes que soportan el espacio. Es aquí donde los laboratorios encuentran su real entidad, la
entidad que quiero darles en este trabajo. El laboratorio es el lugar
donde se ubica el diseño inicial, pero también la optimización posterior
que retroalimenta los mismos laboratorios y que genera contra-laboratorios
en el diseño de los entornos digitales. El diseño de entornos es parte
entonces de la planificación para el control, pero también de la optimización
que produce la retroalimentación informacional sobre los usos-finales
en cualquier espacio. El ciberespacio es el lugar por excelencia donde
esta dinámica puede observarse. Todos y cada uno de los actores involucrados
en la regulación del ciberespacio, antes o después, hacen uso político
del diseño de entornos a través de los laboratorios y contra-laboratorios.
El diseño de entornos concentra la tensión entre los programas iniciales
de una mediación técnica, con sus metas y objetivos, y la resultante
de la mediación que actualiza los resultados finales de la prácticas.
Por tanto, el diseño de entornos intenta describir la fase inicial
del diseño pero, también, describe los procesos de optimización y
actualización que estas mediaciones poseen en sus extremos, en sus
márgenes. Este proceso es absolutamente dinámico, conflictivo y, a
pesar de su costo, reversible. El laboratorio es un lugar especialmente potente para el ejercicio
de la política a través de las MTR. Los laboratorios de diseño de
entornos digitales conforman una instancia política alternativa donde
tanto las arquitecturas del ciberespacio, como los principios sobre
los que se basa, afectan la ecología informacional del ciberespacio
[28]
. Esta es una tensión, o mejor dicho, una interrelación
circular entre los diseños e intenciones iniciales y los usos finales
en todo ámbito de regulación. La retroalimentación informacional que
se establece entre estas dos instancias es esencial a la hora de observar
el CRI. Aquello que fue pensado para cumplir determinadas funciones
termina (o comienza) a ser utilizado en nuevos y singulares usos.
Los usuarios finales llegan a armar corporaciones, laboratorios e,
incluso, a confundirse con las redes en las que interactúan, llegan
a constituirlas, a dominarlas, utilizando MTR como tácticas subvertoras.
Esta tensión aumenta cuando el espacio sobre el que se interviene
es un espacio construido sobre la apertura y la transparencia, o sea,
favorecido por una arquitectura originaria que fundamentalmente desactivó
el control centralizado
[29]
y conformó un espacio que aún permite el acceso
a las MTR de una forma colaborativa. Nuestra condición sociotécnica de producción de espacios y conductas
a través del diseño de entornos digitales no hizo una excepción en
el caso de Internet, puesto que, en otras palabras, Internet es el
caso por antonomasia que evidencia esta tendencia. El nuevo entorno
digital emergió de laboratorios científicos, militares, comerciales,
e incluso de laboratorios montados por usuarios productores del mismo
espacio, los que generaron, a su vez, más laboratorios. Internet es,
en si mismo, un laboratorio gigante con infinitas MTR, arquitecturas
y sofisticadas codificaciones. El diseño original de la red permitió
espacios de libertad que actualmente, debido a la tan preciada seguridad
jurídica, están en pleno cierre, en plena clausura
[30]
. Cuando Internet a mediados de la década del 90
se volvió comercial en los países desarrollados, surgieron graves
problemas regulativos sin solución inmediata desde las perspectivas
regulativas ancladas en las visiones jurídicas clásicas. El derecho
como instancia regulativa pública comenzó a verse como una técnica
regulativa perteneciente a otro espacio-tiempo
[31]
. La regulación de espacios y conductas en Internet comenzó a basarse en
las mediaciones tecnológicas que construían el espacio mediante soluciones
que involucraban a las corporaciones desarrolladoras
de tecnologías a nivel global. Esto afectó el sentido comunitario,
la apertura, libertad y transparencia, que caracterizó Internet desde
sus inicios. Emergieron conflictos
entre las soluciones legales y los nuevos desarrollos tecnológicos
privados que afectaron directamente la parte comunitaria de
Internet. Debido a su baja regulabilidad jurídico-clásica, Internet fue
erróneamente considerado en la primera parte de la década del 90 como
un espacio de libertad absoluta. Sin embargo, lejos ya de las ideologías
libertarias que –afortunadamente- definieron las Declaraciones de
Independencia del Ciberespacio (Barlow; 1996), se hizo evidente que
el concepto que se encuentra detrás de muchos de sus desarrollos originales
es el concepto de cibernética
[32]
, y que el concepto de ciberespacio
[33]
, proveniente de una novela de ciencia-ficción,
puede transformarse en un espacio de control absoluto, perfecto y
ubicuo. Por ello, casi como un destino, el gran peligro que azota
al CRI es que los laboratorios y contra-laboratorios comiencen a diseñar
entornos de redes altamente regulables mediante un control central,
perfecto y asfixiante. A diferencia de lo que ocurría hasta hace una
décadas, la proliferación de dispositivos de control puede consolidar
arquitecturas irreversibles que privilegien el control y la vigilancia,
a la diversidad y libertad. Lejos del libertarismo original, las discusiones
actuales diferencian y discuten los tipos de control y los actores
involucrados que pueden favorecer o limitar espacios, constreñir o
permitir conductas
[34]
. Desde hace unas décadas el CRI se vio ampliado a una pluralidad de instancias de
análisis. Se hizo evidente la emergencia de nuevos reguladores en
el gobierno de Internet, lo que anticipó el surgimiento de una nueva forma regulativa
vinculada al diseño y codificación de entornos digitales. Este nuevo emergente es el que paso a analizar
en el siguiente apartado.
C) Los reguladores de espacios y conductas
El campo de las regulaciones en Internet contiene las diferentes
técnicas políticas de control de espacios y conductas y los modelos
que deciden la ecología informacional de nuestras sociedades. Históricamente,
a cada tecnología de producción, registro, procesamiento
y difusión de información (oralidad, escritura, alfabeto, imprenta,
y los medios electrónicos) correspondieron diferentes formas políticas
en relación a las mediaciones técnico regulativas
[35]
. El desarrollo vertiginoso de la red de
redes no ha sido una excepción a la regla y también generó profundos cambios dentro del campo de
las regulaciones. Muchos de estos cambios, aún silenciosos e invisibles,
han contribuido a enfrentar -dicho a groso modo- el derecho con la
tecnología.
[36]
Por tanto, dedicamos este apartado a la caracterización
de algunas mediaciones técnico regulativas, las que denominamos reguladores,
y que están vinculadas a las formas en que, de manera limitada, podemos
pensar nuestra arquitectura político social. Los reguladores son construcciones
con las que conceptualmente sintetizamos de forma limitada, pero elocuente
y directa, las formas concentradas en que las mediaciones técnico
regulativas pueden aparecer según los clásicos criterios políticos
sociales
[37]
. Los reguladores son dispositivos a través de los cuales las conductas
y los espacios son controlados, diseñados, protegidos o restringidos.
Según Lawrence Lessig (1998; 1999-A), las conductas y los espacios,
tanto dentro del ciberespacio como fuera de él, se regulan al menos
por cuatro reguladores: las leyes, las normas sociales, el mercado
y la arquitectura o el código para el ciberespacio. Muchas veces Lessig
llama a estos reguladores con el nombre de restrictores. Sin embargo,
si bien los reguladores funcionan muchas veces como restrictores de
espacios y conductas, su función es más amplia, puesto que los reguladores
también son constructores de espacios y formadores de conductas tal
como lo he establecido en los apartados anteriores. Por tanto, rescato
en todo momento, como parte fundamental y constitutiva de mi tesis,
la ambigüedad latente que existe en cada uno de los reguladores analizados.
Paso entonces a caracterizar cada uno de estos reguladores. Comienzo
con las leyes como primer regulador, continuo con las normas sociales,
el mercado y finalmente con el código y las arquitecturas en el ciberespacio. El primer regulador esta compuesto por las leyes. Entiendo las
leyes como el conjunto de normas jurídicas producidas a través de
procedimientos válidos y sistemáticos, sancionadas por una autoridad
política competente y soberana, que se encuentran vigentes en un tiempo
y espacio determinados y que resultan obligatorias para la generalidad
de los ciudadanos de un estado. La forma regulativa específica de
las leyes se basa en la posibilidad, real o potencial, de un castigo-pena-sanción
por parte de la autoridad competente que ejerce el monopolio de la
violencia físico-simbólica. Por leyes en sentido genérico estoy entendiendo
las leyes que van desde la constitución hasta las leyes y actos administrativos
de menor rango. Las leyes al igual que los decretos, las normas administrativas
o, incluso, las sentencias, funcionan como reguladores mediante un
constructo mayor que llamamos derecho. Esto funciona de la misma forma
tanto en la tradición del Derecho Continental como en el Common Law,
puesto que el derecho como mayor constructo, le da cobertura, concentra
las leyes y les ofrece la continuidad necesarias a través del tiempo. El segundo regulador, muy vinculado al derecho a través de la
costumbre, está compuesto por las normas sociales. Por normas sociales
entiendo un conjunto de reglas sedimentadas en el tiempo por la práctica
cotidiana, más o menos obligatorias, que no tienen un órgano específico
que las haga cumplir en caso de desobediencia. Las normas sociales,
sin tener la amenaza de las sanciones formales del criterio jurídico
moderno, poseen siempre una tendencia a ser respetadas por ser costumbres
que las mismas normas arrastran. Esto no indica que a las normas sociales
les falte el castigo, sino que su forma regulativa específica es la
siempre presente tensión entre inclusión–exclusión a grupos sociales
de pertenencia. En otras palabras, las normas sociales amenazan mediante
la aprobación o desaprobación por parte de un determinado grupo de
personas. Las mismas, restringen por medio del etiquetamiento, la
estigmatización, en suma, a través de lógicas de diferenciación social.
Las normas sociales, a través de la costumbre, son la principal fuente
(tal vez, oculta en gran parte) de la codificación jurídica
[38]
. En tercer lugar aparece un regulador denominado genéricamente
mercado, donde ubico la dinámica temporo-espacial dedicada a la producción,
intercambio y comercio entre productores, trabajadores, proveedores,
comerciantes y consumidores. El mercado puede ser un lugar público
determinado, o bien, un espacio global imaginario dedicado al comercio
e intercambio de divisas, bienes, servicios, experiencias e información.
La forma regulativa básica del mercado esta dada por el precio como
variable económica que permite un aumento o disminución del intercambio
y acceso a determinados bienes, servicios y experiencias, según las
reglas de la oferta y la demanda mercantil. Los mercados siempre están
altamente regulados, de forma directa o indirecta, tanto por normas
jurídicas como por normas sociales. En el presente trabajo me aboco
a describir este importante regulador solo en la parte referida a
las condiciones donde el mercado impone restricciones a la circulación
de bienes intangibles a nivel global. El análisis del mercado es esencial
para el campo de las regulaciones de Internet, aunque más que el análisis
de mercados concretos, me interesa establecer las relaciones y constreñimientos
que este regulador mantiene con los otros reguladores a través de
condiciones concretas para el tráfico mercantil
[39]
. El cuarto regulador aparece materializado a través de los conceptos
de arquitectura (para el mundo urbano) y de código (para el ciberespacio).
Si bien Lessig en sus obras iniciales reservó el concepto de arquitectura
para los espacio fuera de Internet (constreñimientos y gravámenes
de la vida urbana sobre espacios y conductas), en sus obras recientes
habla de arquitecturas de Internet como instancias políticas dentro
del ciberespacio. Como tal, el concepto logra confundirse mucho con
el concepto de código. Para caracterizar este regulador debo hacer
una aclaración al respecto. La arquitectura es el modo en que una
estructura esta diseñada, construida y, como tal, afecta las formas
de uso sobre el espacio. Los programadores y diseñadores de software
llaman arquitectura a la instancia de planificación estratégica superior
de un sistema. Los diseñadores de páginas web, o de bases de datos,
también utilizan el concepto para referir a la estructuración de la
información. Sin embargo, la arquitectura puede referir también, y
este es el caso, a la planificación y diseño de una red de computadoras.
El concepto de arquitectura define los principios que gobiernan las
redes, los diferentes enlaces, formas organizativas, procedimientos,
protocolos y hasta formatos de información dentro de una red. Por
tanto, el concepto de arquitectura de Internet debe ser interpretado
en sentido amplio
[40]
. Dentro del campo de las regulaciones del ciberespacio, técnicamente
hablando, el regulador específico se denomina código (code,
en inglés). El código es el emergente más importante dentro del campo
de las regulaciones de Internet. A pesar de lo que parece a simple
vista, el código es un concepto más críptico, cerrado, y concentrado
que el de arquitectura. El código es parte de las tecnologías que
hacen funcionar las computadoras y está compuesto por lenguajes complejos.
Para quienes no están especializados en estas tecnologías y lenguajes,
el código produce efectos sin necesidad que entender sus procesos
constitutivos. Específicamente, el código es un tipo de lenguaje alto,
producido por actores-humanos, a través del cual se generan las instrucciones
legibles en códigos procesables para las computadoras o actantes-no-humanos.
El código regula aquello que Lessig (1999-A) llama el espacio de las
aplicaciones de Internet, un espacio que une los extremos finales
de una red. El código es aquel regulador que controla la actividad
o proceso que se da en los extremos periféricos de Internet y que
está caracterizado por el uso de protocolos abiertos y transparentes.
Sin embargo, Lessig también refiere al código genéricamente como el
modo de crear y configurar el ciberespacio de una determinada forma
y por ello, también he tomado esta definición ampliada
al referirme al diseño de entornos digitales en el ciberespacio. De
allí la importancia del código.
D) La (de)codificación de los
reguladores clásicos
Cada uno de los reguladores
analizados posee, a su vez, una particular forma de codificación que
paso a describir en los dos apartados finales. Los reguladores pueden
dividirse por un lado, en reguladores clásicos (las leyes, las normas sociales y el mercado), a los
que dedico el presente apartado, y por el otro, el código como nuevo
emergente de codificación del ciberespacio, al que dedico el siguiente
apartado. La producción de los reguladores clásicos
y la resultante de las nuevas codificaciones comienzan a articularse
en la regulación del ciberespacio y conforman un nuevo emergente con
características específicas. Para comprender esta negociación es necesario
entender previamente la forma típica de codificación que han desarrollado
los reguladores clásicos. Ordeno los reguladores clásicos según la
mayor o menor visibilidad en la práctica cotidiana, o sea, comienzo
con la ley dado que es el regulador de mayor visibilidad. Analizo
la codificación legal desde las especiales condiciones que el tráfico
mercantil requirió a su funcionamiento, para luego, con menor visibilidad,
analizar las normas sociales que, muchas veces ocultas tras mecanismos
de la vida cotidiana y olvidadas en su rol de reguladores en el campo
de las regulaciones, poseen una profundidad silenciosa que se distribuye
mediante la riqueza de sus mediaciones técnicas por todo el entramado
sociotécnico. Las leyes surgen actualmente por medio de formas transparentes
y racionales regidas por la misma ley. Es decir, surgen a través de
las formas legítimas y válidas del procedimiento constitucional. Las
leyes luego de la modernidad pueden caracterizarse por ser procedimientos
sistemáticos que trabajan sobre otros procedimientos. Sin embargo,
esto no significa que en otros momentos históricos no hayan existido
rigurosas formas que establecían lo que debía observarse con celo
sagrado. La pretenciosa y resentida
relación que la modernidad tuvo con el pasado
[41]
, quebró
el axioma de la naturalidad política antigua y creó un nuevo escenario político para la creación, codificación
y aplicación del derecho a través de las instituciones de los estados
nación
[42]
. El derecho
moderno fue una máquina de precisión que tuvo el objetivo de sistematizar
y codificar las bases económico-políticas con el fin de obtener previsibilidad
en el relacionamiento social. Si la historia de la modernidad es la
historia de una máquina de repetición-seriación, la historia del derecho
moderno es el mapa en donde se diseñaron y proyectaron las piezas
de esa máquina
[43]
. La
arquitectura del derecho moderno separó, mediante un abismo lógico,
el mundo del deber ser legal y el mundo real
que contenía los dispositivos prácticos que gobernaban el tiempo-espacio. El derecho moderno se caracterizó por la presencia de fuertes
contenidos mitológicos, compuestos de cadenas de ficciones, que intentaban
llenar los huecos y lagunas que tenía la nueva cosmovisión política
moderna. A pesar
de sus deficiencias, el derecho aún tiene importantes razones para
ser considerado uno de los principales reguladores en su campo. Posee un poder de ‘nominación’
que le permite crear instituciones, obligaciones, generar cargas,
clasificar, preparar las condiciones para sancionar. Este poder de
dar nombres, según Bourdieu (1993;
91), proviene de la fuerza de las formas, de lo que es consagrado.
El derecho como regulador detenta, para Bourdieu (2000; 201), el monopolio
de la violencia simbólica legítima
[44]
. En este sentido, cuando un grupo, asociación o
sociedad percibe que una conducta es riesgosa, intenta sistematizar
sus experiencias prácticas mediante codificaciones jurídicas. Esta
necesidad de imponer formas, de sistematizar y luego codificar conductas,
depende siempre del riesgo-peligrosidad en que se encuentren los bienes
(jurídicos) a proteger. Por tanto, una sociedad más compleja es necesariamente
una sociedad más codificada
[45]
. La obsesiva pretensión de regular todas las situaciones, todos
los casos, todos los posibles ámbitos de la vida, no es natural ni
ingenua. Sin analizar la matriz religiosa, en concordancia con Weber
(1999), puedo afirmar que el impulso hacia la mayor sistematización
del derecho derivó de la importancia progresiva del tráfico
comercial y de la consecuente necesidad de diagramar un orden
político-económico previsible dentro de la actividad mercantil. El
moderno capitalismo industrial necesitó de un derecho previsible y
de una administración guiada por reglas formales, coherentes, casi
matemáticas, que favorecieran el cálculo y la estimación del lucro. La sistematización jurídica significó el relacionamiento
de preceptos -obtenidos mediante el análisis legal- para formar un
conjunto de reglas claro, coherente, y sobre todo, desprovisto de
lagunas. La sistemática moderna del derecho parte de la interpretación
del sentido lógico de los preceptos jurídicos y de la conducta jurídicamente
relevante, y se enfrenta a lo irregular, intuitivo y práctico de las
relaciones que constituyen el caso concreto. Sin embargo, la sistematización,
para Weber (1999), representa un fruto tardío ya que el derecho primitivo
la desconocía por falta de las sublimaciones lógicas. El aumento en la
sistematicidad interna del pensamiento jurídico consistió, según Weber
(1999), en un proceso de generalización y reducción. En primer lugar,
una generalización de las razones determinantes y de las situaciones
de hecho a regular. En segundo lugar, una sublimación lógica, o dicho
en otras palabras, la reducción de estos casos a reglas lógicas. Este
fue el proceso de sedimentación y síntesis por el que las reglas o
preceptos jurídicos alcanzaron un alto grado de abstracción lógica
a base de analogías interpretativas. Esta sistematicidad requerida por la seguridad
jurídica del tráfico mercantil sublimó la materialidad de la práctica
regulativa, construyó inmensas catedrales jurídicas, pero relegó al derecho
a garantizar lo que
ya estaba regulado bajo otros dispositivos prácticos ocultos y silenciosos.
Llevó al derecho a un vacío auto-referencial
[46]
que requirió en todo momento de las infinitas redes
que le daban materialidad, aplicabilidad e interpretación práctica
[47]
. Por ello, el derecho siempre necesita brazos
que materialicen sus enunciados, requiere policías, fiscales, tribunales,
cárceles. El mismo se encuentra atravesado por largas cadenas
de mediaciones interpretativas que a su vez lo aplican, sintetizan
y re-codifican. La
tarea que lleva de la regularidad estadística a la regla jurídica
es un proceso de sedimentación lenta y de resultados inciertos dada
la cantidad interminable de delegaciones en redes de actores-humanos. A pesar de la fuerza de las mitológicas ficciones modernas, el
derecho no llega jamás por si mismo a transformar el mundo. Ni el poder
de nominación, ni la sistematicidad moderna, le dan a la técnica regulativa
jurídica la capacidad de gobernar el mundo. El derecho solo puede influir la realidad a
través de un largo proceso de repetición acrítica, internalización
y amnesia de los orígenes. Su principal defecto es su reactividad,
puesto que el derecho funciona a través de una lógica ex post facto.
Por su especial temporalidad llega tarde al abordaje de la ‘realidad’
[48]
. El derecho, a priori, no puede saber nunca cuales
son los usos legítimos actuales que se están produciendo en un determinado
espacio y, por tanto, funciona como garantización de situación hipotéticas.
Una vez que es necesaria su intervención activa sus infinitas redes
y tecnologías. Sin embargo, mientras el derecho se mantiene solo como
amenaza, real o potencial, su resultado es necesariamente contingente.
En este sentido, el derecho es el mejor ejemplo de ambigüedad y polivalencia
que marcamos al analizar las mediaciones técnico regulativas. Por
su especial funcionamiento, la previsibilidad del derecho se juega
siempre a largo plazo y requiere de redes, tecnologías y dispositivos
ocultos que garanticen su efectividad. Para intervenir sobre la intención de los actores-humanos el derecho
requiere de otras tecnologías silenciosas que trabajan por fuera de
la legalidad. Estas conforman un conjunto de tecnologías e instituciones
de secuestro, normalización y docilización
[49]
. El derecho moderno se rodeó de silenciosas y lacerantes
tecnologías de control que disciplinaron y sometieron los cuerpos
a instituciones y formas de producción que subyacen a la arquitectura
programático normativa. Para brindar efectividad a su arquitectura el derecho siempre ha tenido una existencia tanto ideal como material. Por ello,
el derecho existe siempre como idea, como concepto, como positividad
latente, pero juega su realidad en la práctica, en la ejecución de
su potencialidad reguladora, en las intervenciones ocultas y encriptadas.
El derecho se articula con las prácticas, según Bourdieu (2000), como
herramienta dócil, como instrumento flexible, polimorfo y adaptable
que racionaliza ex post sobre la realidad que a su vez construye
[50]
. El derecho funciona como una red circular e interminable de formas, procedimientos,
materias, actores-humanos, actantes-no-humanos, corporaciones, arquitecturas
y codificaciones.
Esta es su principal virtud, puesto que sus redes llegan hasta lo
más profundo del entramado social. Sin embargo, esta es justamente
su especial debilidad como técnica regulativa. Sus redes están altamente
compuestas por delegaciones en actores-humanos los que necesariamente
vuelven discrecional y contingente su práctica. Por
ello, lejos de la visibilidad y discontinuidad del derecho, vemos
que su legitimidad, tanto como su eficacia, se juegan siempre más
allá de lo evidente, más allá de lo formalmente enunciado. La legitimidad
proviene de la oscura y continua fuerza
de la tradición. Proviene de lo que era antes, de aquello que simplemente
es ahora, de la profundidad de los orígenes
[51]
. La legitimidad es tributaria de la indefinición, de
lo alternativo, de aquello que no esta dicho. Es el efecto del olvido, y sobre este,
la repetición acrítica de una conducta, lo que siempre logra el cometido
de naturalizar. En este sentido, los fundamentos
de las leyes son, inexorablemente, falibles, débiles y producto de
los prodigios de la imaginación, de las maquinaciones y del ocultamiento
[52]
. Siguiendo a Bourdieu (2000), podemos decir que
las razones que impulsan a actuar a los actores-humanos (agentes,
según Bourdieu) se guían por una especie de ‘sentido del juego’, por
motivaciones más o menos racionales, escritas en el cuerpo como razones
prácticas, como disposiciones a la acción. El individuo se halla entregado, en la vida cotidiana,
a la aprobación espontánea de su ambiente, la cual no es garantizada
por ninguna autoridad jurídica
[53]
. Las mismas tendencias incorporadas, interiores,
existen sin obediencia conciente a las reglas explicitas y, sin tener
en cuenta el grado de juridicidad de las mismas reglas (Bourdieu,
1993; 83). La codificación de las normas sociales es mucho más oculta,
profunda y eficaz, que la visible codificación jurídica. Por ello,
las normas sociales son piezas fundamentales en las estrategias que
componen el diseño de las mediaciones técnico regulativas del ciberespacio. Ya sea
con formas o procedimientos rigurosos, o sin ellos, la fuerza material
del diario acontecer supera largamente el poder sistematizador de
cualquier codificación jurídica. En la profundidad del derecho
encontramos que la ley es la misma costumbre. Entiéndase bien,
la costumbre que trabaja sobre la repetición acrítica de normas jurídicas,
también puede verse como la tradición de lo que es. Lo que está en
juego aquí, no es la clásica diferencia entre costumbre y norma jurídica,
sino, por el contrario, la relación entre lo que ya está instituido
como legítimo (costumbres, rutinas, normas, o arquitecturas) y la
incontenible tendencia a decir si, a obedecer espontáneamente un orden.
Esto es justamente lo que vuelve fuerte a las normas sociales y por
arrastre lo que también favorece al derecho si es que logra captar
su profunda dinámica
[54]
. El regulador normas sociales esta siempre oculto,
es invisible, no se manifiesta más que por sus resultados finales
y por ello, las normas sociales pueden definirse como codificaciones
criptográficas. Bajo la dinámica de este regulador se ubica la lenta
e irreflexiva optimización de las invariantes históricas que signan
a la tradición con una violencia simbólica específica fundada en la
dualidad pertenecer-no pertenecer, tan típica de las normas sociales. Las normas sociales, como dispositivo regulativo, han sido generalmente
olvidadas en el campo de las regulaciones debido a su forma silenciosa,
profunda y ambigua. Es justamente sobre este dispositivo -incluso
más que sobre el derecho discontinuo de la arquitectura jurídico política
moderna- sobre el que debemos hacer hincapié al momento de auscultar
las tendencias actuales en el campo de las regulaciones. Sin embargo,
tenemos ahora la necesidad de ir más allá de las sistemáticas codificaciones
jurídicas, más allá incluso de las ocultas codificaciones de las normas
sociales. El proceso que lleva de la codificación oculta de las normas
sociales espontáneas a las más complejas sistematizaciones formales
de la codificación jurídica moderna muestra que siempre estamos dependiendo
de redes heterogéneas y procesos técnicos silenciosos que soportan
nuestras acciones. Allí es donde el código, como nuevo regulador en
el ciberespacio, contiene las luchas y sedimentaciones dentro del
campo de las regulaciones en Internet. Es momento de auscultar el
nuevo ídolo, es momento de analizar la forma en que las delegaciones
en actantes-no-humanos logran codificarse y formar parte de aquello
que llamamos genéricamente tecnología.
E) El código como regulador del
ciberespacio
La codificación de nuestra experiencia social esta cambiando rápidamente
a través del diseño y construcción de los entornos en Internet y mediante
la utilización de los nuevos lenguajes digitales. El análisis del
código nos permite observar como las nuevas formas de nuestra condición
sociotécnica están siendo concentradas para normar y ordenar el campo
de las regulaciones. El código, al igual que cualquier otra mediación
técnico regulativa, sintetizada a través de un regulador, remite siempre
al núcleo central de nuestra condición sociotécnica. Nos encontramos
frente a una profunda y antigua tendencia, renovada por las nuevas
formas de codificación de nuestra experiencia. La codificación que
produce cualquier regulador es un proceso de acumulación, sedimentación
y traducción sociotécnica de largo plazo, que tiende a controlar,
ordenar, normalizar y comunicar sistemas. Las codificaciones operan
a través de divisiones, estandarizaciones y clasificaciones de la
práctica y procuran siempre terminar con lo impreciso, con lo ambiguo,
procuran reducir la complejidad y la incertidumbre social. Las nuevas codificaciones comienzan, paulatinamente, a articularse
y asociarse con las formas clásicas de regulación. Como hemos visto,
las nuevas formas regulativas poseen una dinámica bastante alejada
de las modernas codificaciones jurídicas. El diseño arquitectónico
de Internet y la emergencia de códigos digitales comienzan a gobernar
las mediaciones técnico regulativas del campo de las regulaciones.
El regulador que llamamos código se presenta, según Lessig (2001),
como el entorno construido de la vida social. El código del espacio
de las aplicaciones es el regulador por excelencia en el campo de
las regulaciones en Internet. A decir verdad, este código aparece
como uno de los mayores misterios dado que todavía no se vislumbran
los límites de su potencialidad regulativa. El código ordena el tiempo-espacio
de Internet, guía la asociatividad, y controla las delegaciones en
el entramado sociotécnico. El código es aquel regulador que controla
la actividad o proceso que se da en los extremos periféricos de Internet:
o sea, el espacio de las aplicaciones de Internet, aquel lugar donde
se encuentra la interfaz que relaciona simbióticamente los actores-humanos
y los actantes-no-humanos. A diferencia de los reguladores clásicos,
el código que producen los laboratorios de diseños de entornos, construye
proactivamente el espacio al mismo tiempo que lo regula. El regulador código, a diferencia de las leyes y el mercado, constriñe
a través de mediaciones técnico regulativas proactivas producidas
en laboratorios de diseño de entorno digitales. Su forma regulativa
específica es el bloqueo-exclusión, por lo que el código regula el
espacio y las conductas permitiendo o denegando el accesos. Su forma
regulativa se caracteriza por la capacidad de permitir o prohibir
el acceso a determinados espacios o bienes. El regulador código delega
funciones, no en las formas discursivas jurídicas contingentes, sino
en aplicaciones y actantes-no-humanos que le brindan una estabilidad
perdurable en el tiempo junto a costos decrecientes. El código regula
las relaciones con el medio, los accesos, las permisiones y las prohibiciones,
decide quienes, como, cuando, y bajo que condiciones se conectan a
una red. Funciona mediante la posibilidad de identificar y discriminar
quienes hacen, que hacen y como lo hacen, dentro de Internet. En este
sentido, el desarrollo de códigos produce nuevos dispositivos de control
mediante formas específicas de identificación, filtrado, zonificación,
selección informacional, bloqueos y exclusiones, que se vuelven evidentes
cuando nos enfrentamos al problema del acceso. En suma, esta mediación
técnico regulativa que llamamos código, controla las condiciones de
vida y la ecología informacional de la red de una forma proactiva.
Sin embargo, es importante resaltar claramente que la proactividad
del regulador código, no hace desaparecer ni la polivalencia, ni la
dependencia que cualquier regulador tiene en relación a los usos finales
de las redes que soportan el entramado regulativo. El código, como un tipo fuerte de restricción a la conducta, según
Lessig (1999-A), debe ser entendida como la naturaleza misma, por
lo que no puede ser considerada una instancia opcional dentro del
ciberespacio, al igual que no es opcional la arquitectura en la vida
urbana de nuestros días (Lessig, 1999-A). De allí la importancia de
la analogía entre la arquitectura del mundo real y la codificación
del ciberespacio. Dado que el código construye y estructura la arquitectura
del ciberespacio, podemos afirmar que el mismo tiene una mayor inevitabilidad
que los reguladores clásicos. Debido a su relevancia para el ciberespacio,
William Mitchell (1995) entiende que el código aparece como la ley
moderna. Para la actual regulación de la red el código aparece como
la ley misma (Mitchell, 1995; Lessig; 1998). Muchos expertos en los
lenguajes digitales observaron tempranamente que el código era la
ley dentro del ciberespacio, puesto que podía restringir, condicionar,
seleccionar, permitir o denegar los accesos. Sin dudas, el control
de ese código es poder específico y, por ello, su esencial importancia
para las luchas políticas dentro del campo de las regulaciones (Mitchell;
1995). Para Lessig, debemos entender el código como reino de leyes,
porque el código puede restringir o habilitar libertades, como antes
solo lo hacía la ley (Lessig, 2000 A; 9). Por lo tanto, el código
y la arquitectura de los sistemas, comienzan mostrarse como claros
competidores del derecho dentro de las regulaciones del ciberespacio.
Este proceso fue evidente en la década del 90 cuando, en medio
de una gran expansión de Internet, se entendió que la red era un espacio
difícil para la regulación jurídica, aunque no lo era para regulaciones
que hacían uso de otros dispositivos y censores que remitían a la
continuidad de las tecnologías silenciosas de control disciplinar.
En este sentido, James Boyle (1997) ha dicho tempranamente que Internet
es el espacio de mayor regulación en toda la historia de la humanidad
a pesar de haber sido caracterizado erróneamente como un espacio naturalmente
no regulable. El error en estas apresuradas declaraciones estuvo en
la imposibilidad de observar los cambios profundos que se estaban
dando en la arquitectura política de las mediaciones técnico regulativas.
En este sentido, el código -a diferencia del derecho- no codifica
reactivamente el ciberespacio, sino que lo hace proactivamente bajo
el signo de la oscura conquista de los laboratorios de diseño de entornos.
Sin embargo, a pesar de ver debilitada su antigua fuerza reguladora,
el derecho no desaparece del campo de las regulaciones sino que por
el contrario acompaña y se articula con las nuevas modalidades en
la restricción de las conductas y los espacios. Las regulaciones apegadas a la codificación del ciberespacio a
través del diseño de entorno se muestran más flexibles y oportunas
para regular la red que la rudimentaria sanción de leyes. A pesar
que fácilmente se pueden establecer analogías entre el código y el
derecho, es importante aclarar que el código no es una ley, ni funciona
como instancia pública clásica. En este sentido el código es tanto
público como privado, es patrimonio de la condición sociotécnica común
y, como tal, posee una profundidad que no puede reconocerse a simple
vista. Los códigos históricamente se elaboraron bajo la multiplicidad
de formas y estuvieron abiertos a la diversidad asociativa con diferentes
mediaciones técnicas. El caso paradigmático en la historia de las
codificaciones es el desarrollo de Internet de una forma abierta y
transparente. En otras palabras, mostrando un código específico para
construir espacios comunes. En los casos de producción abierta y transparente
de software y protocolos de Internet, el código está ubicado como
referente para que podamos controlarlo, compartirlo y optimizarlo
comunitariamente. En momento en que algunas capas de Internet se encuentran
en una etapa de cierre, la producción de códigos representa una enorme
promesa al mismo tiempo que la mayor amenaza en el campo de las regulaciones. Desde
hace dos décadas empresas, corporaciones comerciales y estados nación,
están presionando para cerrar la producción abierta y transparente
de código en el ciberespacio. Se basan en criterios obsoletos de protección
de algunas condiciones del trafico mercantil que en nada benefician
la innovación y el desarrollo económico
[55]
. Afortunadamente, todavía el código no es diseñado
exclusivamente por las corporaciones que persiguen solo fines comerciales.
La producción de códigos dentro del campo de las regulación de Internet
esta caracterizada por una insuficiente, aunque muchas veces relajante,
intervención de los estados-nación, un fuerte desarrollo de código
cerrado por parte de las diferentes corporaciones comerciales, y por
la intervención militante de los laboratorios de las universidades,
las comunidades virtuales y por usuarios productores finales que pueden
contribuir a producir código y retroalimentar el fenómeno Internet.
Estos actores producen códigos, y por tanto, participan en las diferentes
instancias de gobierno de la red que está re-inventando y re-diseñando
el espacio común. Sin
embargo, desafortunadamente, no todos los actores que elaboran estrategias
para la regulación de la red tienen en cuenta la complejidad del campo
de las regulaciones y la diversidad de reguladores que están en juego.
No todos saben manejar este nuevo arte, en momentos en que la regulación
de la red debe necesariamente articular la complejidad de los diferentes
reguladores involucrados. Puntualmente, veo emerger en el campo de
las regulaciones en Internet un nuevo arte regulativo que articula
estratégicamente las diferentes mediaciones técnico regulativas para
intervenir en el campo de luchas políticas. Este nuevo arte regulativo
emergente no desprecia ninguno de los reguladores en juego, sino que
utiliza todos los reguladores con el objetivo de lograr intervenciones
eficientes, abiertas, progresivas. Por tanto, a diferencia de aquello
que generalmente se piensa, el peligro de la regulación de la red
a nivel global no pasa exclusivamente por las diferentes brechas digitales
en aumento. Para nuestro trabajo uno de los mayores peligros esta
dado por la configuración a nivel global donde solo quienes estén
en condiciones de generar codificaciones complejas para la red, y
logren articular los reguladores disponibles mediante este nuevo arte,
podrán acceder a los niveles superiores de este nuevo tipo de gobierno
de los espacios comunes. Para el resto, para quienes no manejen el
nuevo arte regulativo, la regulación se transformará en una instancia
prohibitiva. El peligro
inminente se encuentra en la reducida cantidad de regiones, y dentro
de las regiones, las redes de actores-humanos que realmente están
capacitados para lograr delegaciones sobre actantes-no-humanos que
puedan generar códigos y estrategias que diseñen el ciberespacio de
forma abierta y transparente. Para intervenir en este campo de luchas,
es necesario crear laboratorios de diseño de entornos digitales que
se aboquen a este nuevo arte regulativo emergente que combina los
diferentes reguladores y diseña proactivamente el entorno digital.
De hecho, una de las notas salientes en el campo de las regulaciones
a nivel global es la aparición de corporaciones sin fines de lucro
que, soportadas por comunidades de usuarios productores, están interesadas
en preservar el libre intercambio de información, la diversidad cultural,
continuar con la producción libre y abierta del software y conservar
la apertura y transparencia de la arquitectura originaria de Internet,
como forma de preservar las libertades básicas de las sociedades democráticas.
Por ello, en el siguiente capítulo, paso a analizar los orígenes,
los desarrollos, los productores y, específicamente la arquitectura
de Internet como principal instancia política dentro del campo de
las regulaciones.
Internet
es una forma organizativa auto-evolutiva de carácter superior que
permite, por primera vez en la historia, la intercomunicación descentralizada
entre muchas personas o puntos en una red. Esta característica de
Internet, tal vez la característica que mejor la defina, esta sustentada
y garantizada por un tipo de arquitectura que permite la convergencia
de redes de todo tipo. El presente capítulo analiza la instancia política
por excelencia de Internet, o sea, su arquitectura de red. Comienzo
describiendo las arquitecturas como instancias políticas, luego analizo
los productores del espacio Internet, para poder abocarme luego a
la arquitectura originaria de la red, a su transparencia y apertura,
sin dejar de lado los principios y estandarizaciones que la guiaron.
Analizo el packet switching, el protocolo TCP/IP y el principio
de diseño filosófico-político E2E. Finalmente, establezco los rasgos
salientes de las actuales discusiones en el campo de las regulaciones
haciendo hincapié en la tensión que se abre entre las tecnologías
de control y las tecnologías de libertad que están produciéndose en
las diferentes capas analíticas del espacio Internet.
A) Las arquitecturas
como instancias políticas Hemos visto en el capítulo primero que Internet posee una extraña
pero fascinante forma de gobierno que, basada en el diseño proactivo
de los entornos digitales, conforma un nuevo arte regulativo producido
en laboratorios y contra-laboratorios. La noción de gobierno debemos entenderla
en sentido amplio, o sea, como un emergente político complejo, compuesto
de luchas, fuerzas y tensiones, donde las mediaciones técnico regulativas,
tanto proactivas como reactivas, quieren controlar la arquitectura,
los usos durables y el desarrollo futuro de una red estructurada
bajo estándares comunes y abiertos. El concepto de gobierno evidencia,
al igual que en todo proceso tecnológico, una tensión entre los
diseñadores y los usuarios finales de las redes. Estas instancias
logran fundirse, sin que podamos diferenciarlas claramente, dentro
de la arquitectura que conforma el entorno Internet. A diferencia de la concepción esencialista que acompañó
durante siglos la nominación y la configuración de los entornos (naturales)
de la modernidad, el advenimiento del ciberespacio hizo evidente una
concepción del diseño de entornos directamente relacionada con la
arquitectura como aparente forma sólida e irreversible. El nuevo arte
regulativo de diseño y estructuración de entornos digitales transforma,
a través de las mediaciones técnico regulativas, la arquitectura de
Internet en la instancia política por excelencia para controlar usos,
accesos y espacios en el ciberespacio. Este trabajo, como ha podido advertir el lector, está atraído
por las arquitecturas silenciosas
que de manera efectiva configuran políticamente Internet a través
de codificaciones poco evidentes. Las arquitecturas han estado históricamente
vinculadas a la política en sus diversas formas, pero
solo a partir del nuevo ecosistema de relaciones que produjo el Internet
-afirman Kapor, Barlow y Lessig- la arquitectura pasó a ser conceptualmente
la política de la red. Esta afirmación está lejos de ser solo una
metáfora. Si bien lo arquitectónico siempre se nos presenta como aquello
que subyace, que se vuelve imperceptible, natural y constitutivo de
un espacio-tiempo, las arquitecturas son instancias políticas que
configuran el espacio y regulan las conductas. Las mismas están caracterizadas
por su inevitabilidad, irreversibilidad y su firmeza al momento de
configurar el tiempo espacio. Por arquitectura entiendo la estructura
más o menos estable de nuestro entramado sociotécnico que define el
estado de las mediaciones técnico regulativas en un espacio tiempo
determinados. En este sentido, las arquitecturas deben ser tratadas
como la ecología relacional de nuestro entramado socio-técnico. Cuando
hablamos de arquitectura en el ciberespacio, según Lessig (1999 A),
más que un texto legal o constitucional debemos entenderla como una
forma de vida, una ecología, puesto que estructura poderes sociales
y legales con el fin de proteger ciertos valores fundamentales. En
este sentido, el diseño arquitectónico político del entorno Internet
es fundamental para la libertad, la democracia y la diversidad cultural
en nuestras sociedades. Lo arquitectónico es algo que ya esta pensado, diseñado, construido
y que produce efectos con independencia de las voluntades individuales
y colectivas. Las arquitecturas son formas ordenadas y, muchas veces,
no-volitivas de regular las conductas y los espacios. Por ello, la
relación que hemos tenido con las arquitecturas ha sido siempre una
relación inconsciente: la obra siempre supera la condición de su creación-creador,
se independiza de ella, logra autonomía. A través del concepto de
arquitectura quiero significar genéricamente las formas de establecer
un orden en el cosmos, de regular instancias de forma durable, o constreñir
de forma estable, por tanto, hablo de una forma durable en que las
cosas simplemente son, en forma similar a como las mediaciones de
las normas sociales configuran el entramado relacional. Las arquitecturas,
por su firmeza, presentan generalmente resistencias al cambio, a la
alteridad, y por lo general, las mismas tienden a volverse irreversibles
cuando mayores son las tensiones e intereses en juego, o sea, en función
de la cantidad y calidad de las redes involucradas en el mismo proceso
de re-composición y cambio. Las arquitecturas dependen, en mayor o
menor medida, de su composición y diseño originario, aunque las mismas
están siempre supeditadas a los usos finales sobre el espacio. Cuando hablo de arquitectura de Internet, a pesar de las diferencias
entre el espacio urbano y el ciberespacio, me refiero a los mismos
efectos de la arquitectura que construye lo urbano, o sea caminos,
puentes, viviendas, monumentos, escuelas y cárceles. De hecho, me
refiero al mismo tipo de arquitectura que condiciona e indica las
formas de ser, aunque sería conveniente referir a todos aquellos ensamblajes,
asociaciones, delegaciones que se dan entre redes de actores-humanos
y actantes-no-humanos. Dicho en clave moderna, estos espacios -tanto
el ciberespacio como el espacio clásico- poseen infinidad de naturalezas
que tienden a mixturarse conformando nuevos entornos comunes
[56]
. Sin embargo, a pesar de las similitudes, las diferencias
entre estas arquitecturas también son importantes. Cada espacio posee
propiedades diferenciales, específicas y, por tanto, complementarias.
Por ejemplo, la arquitectura del ciberespacio es más flexible y modificable
que la arquitectura de lo urbano, puesto que, por un lado, el mundo
digital esta próximo al espacio abstracto de las ideas y su contenido
digital puede aún ser copiado, distribuido y alterado, prácticamente
sin costo ni dificultad alguna. Por otro lado, la arquitectura del
ciberespacio esta caracterizada desde sus inicios por ser abierta
y flexible, puesto que permite su modificación y la construcción de
nuevas arquitecturas sobre sus cimientos. En el ciberespacio las conductas
de los usuarios son mejor reguladas a través del código que través
de leyes clásicas
[57]
. Por ello, el diseño de las
arquitecturas del ciberespacio conforma una instancia política ineludible
al momento de plantear las tendencias actuales en el campo de las
regulaciones en Internet. Las arquitecturas en el ciberespacio también son efectivas por
si mismas, nos afectan desde su inicio y permanecen inalterables por
largos períodos. Estas reciben su proactividad del código que regula
y diseña, a un mismo tiempo, el entorno Internet. En este sentido,
no dependen de delegaciones de funciones en actores-humanos y, por
tanto, poseen mayor estabilidad que el derecho, las normas sociales
o las siempre negociables instancias de mercado. Sin embargo, esta
proactividad y mayor rigidez frente a otras instancias de regulación,
puede también ser una desventaja comparativa dependiendo del lugar
desde donde observemos su condición. Los usos finales vuelven las
arquitecturas tan polivalentes como cualquier otra instancia político
regulativa. Este proceso se acentúa aún más cuando hablamos de una
arquitectura flexible construida sobre bases abiertas y transparentes.
En este sentido, la arquitectura de Internet, supuestamente material
y rígida como cualquier arquitectura, ganó flexibilidad cuando se
desarrollaron nuevas formas de codificación digital. Por tanto, siguiendo
con el ejemplo, la arquitectura de la red es más rígida que otras
instancia de regulación, pero a su vez, más flexible en sus bases
que las arquitecturas de lo urbano. Aquí se encuentra uno de los mayores
peligros dentro de esta instancia política regulativa. Allí es donde,
como observamos en el capítulo 1, el campo de las regulaciones se
encuentra atravesado por tensiones políticas frente a la clausura
y al control que imponen las condiciones del tráfico mercantil. A principios de la década de 90, cuando se hizo evidente que las
formas clásicas de regulación no convertían Internet en un espacio
confiable y seguro para los intereses de corporaciones comerciales
y estados nación, esta flexibilidad originaria llevó a la arquitectura
de Internet a ser el objeto principal de intervención política del
campo de las regulaciones. Cambios profundos comenzaron a afectar
la arquitectura de la red una vez que se hizo evidente la obsolescencia
del derecho clásico para su regulación. La arquitectura originaria
de Internet empezó a ser analizada desde otras perspectivas y tomo
un protagonismo que no se condecía con su silenciosa modestia originaria.
La importancia de las formas arquitectónicas emergentes se volvió
aún más evidente con el advenimiento de la Internet privatizada, la
que volvió Internet un medio comercial masivo en los países desarrollados.
Las nuevas formas arquitectónicas -en realidad, nuevas formas de diseñar
y regular el tiempo espacio- se vincularon directamente con el desarrollo
y diseño de la tecnología. En
algunos laboratorios emergió un nuevo ethos cibernético que comenzó
a usar el diseño del entorno para controlar y volver más regulable
las conductas y los espacios mediante la intervención directa sobre
la arquitectura. La arquitectura originaria de Internet emergió como una arquitectura
aparentemente neutra, silenciosa, o mejor dicho, una arquitectura
que dice poco, pero lo hace de forma flexible e irreversible a la
vez. No es una arquitectura blanda, pero tampoco es insustituible
o inmodificable. Internet, en este sentido, se parece mucho a un organismo
biológico que en mayor o menor medida se encuentra fuera de un control
centralizado. Este nuevo ethos cibernético de diseño de entornos que
acompaña el desarrollo de Internet esta años luz de alguna moda vacía,
o de algún plácido adormecimiento transcultural. Lejos estoy de suponer
que puede existir una arquitectura a-histórica y a-política, puesto
que este ethos cibernético penetra en lo profundo de las formas políticas
silenciosas, en las formas políticas insólitas, seductoras, alternativas.
Justo en momentos en que la arquitectura de lo urbano fijaba las bases
del extrañamiento por las décadas del 60-70, de la perdida del sujeto,
de la des-ubicación de lo humano bajo la arquitectura posmoderna,
otras arquitecturas, esta vez de redes electrónicas, proyectaban la
re-ubicación y sujeción de actores-humanos a un no-espacio-clásico,
a una dimensión electrónica, figurativa, diametralmente opuesta a
lo urbano y claramente histórica y política. Desde esta perspectiva veo emerger nuevas arquitecturas de una
forma violenta, pero silenciosa, de forma tan violenta como las instancias
políticas que gobernaron el siglo XX, de forma tan silenciosa como
un destino irreversible. Para nuestra generación, aquellos nacidos
en la década del 70, la construcción de nuevas arquitecturas ha sido
siempre un proceso silencioso, aunque su derrumbe, por el contrario,
ha sido sorpresivo y violento. A decir verdad, lo significativo para
muestra generación ha sido lo sorpresivo de los derrumbes de las diferentes
arquitecturas políticas
[58]
. Sin dudas, nos encontramos frente a grandes cambios
en las arquitecturas políticas a nivel global. Por tanto, creo imprescindible
a auscultar la emergencia de una nueva arquitectura política silenciosa,
una arquitectura de redes electrónicas que comienza a gobernar las
conductas y los espacios a nivel global. En los apartados que siguen
hago un breve recorrido por su historia, sus características centrales,
su origen abierto y transparente, y por los elementos fundamentales
que la componen. Intento evidenciar los peligros políticos frente
a los que nos encontramos cuando hablamos de la emergencia de un nuevo
arte regulativo que diseña los entornos en las diferentes capas de
Internet.
B) La arquitectura
originaria y los productores del entorno
Las
redes son formas organizativas complejas, extendidas y dinámicas,
que están compuestas por sistemas, puntos o nodos interconectados.
Existen redes de todo tipo y forma; podemos encontrar redes de personas,
telefónicas, eléctricas, de televisión por cable, o bien redes de
computadoras. Las redes, a su vez, pueden ser redes centralizadas
o descentralizadas, abiertas o cerradas, o bien, redes con mayor o
menor grado de interconexión. Lo que caracteriza las redes es la propiedad
de interconexión entre los diferentes puntos o nodos, y allí existen
redes con mayor o menor grado de interconexión. Dentro de una red
altamente interconectada podemos llegar desde un punto a cualquier
otro punto de la red. La mayor o menor cantidad de alternativas en
el transporte de un punto a otro punto cualquiera, dará el grado de
interconexión que posee la red. El tipo de redes que más rápido se
han extendido en estos últimos años han sido las redes electrónicas
[59]
. Las redes electrónicas son un conjunto de puntos o sistemas interconectados
por algún medio físico de diferentes alcances y formas, que por medio
de un software pueden lograr una comunicación entre computadoras distribuidas
espacialmente. El desarrollo de las primeras redes electrónicas por
la década del 60 -caracterizadas por su penetración, descentralización
y flexibilidad- dio lugar al nacimiento de Internet. Las
mismas redes comenzaron a construirse a finales de los años 60 cuando
su diseño paso a ser uno de los ejes centrales de la investigación
y la creación de conocimiento informático. La actividad de interconexión
entre dos o mas redes particulares a través de dispositivos de enlace
-para facilitar la comunicación entre sistemas- se conoció como Internetworking.
Dado que las computadoras eran escasas, caras, distantes y lentas,
esta actividad fue concebida tempranamente como una forma de compartir
el tiempo de computación, o mejor dicho, de procesamiento de información
[60]
. La velocidad y crecimiento exponencial del nuevo
paradigma tecnológico sustentado en tecnologías digitales
[61]
permitió el aumento cuantitativo y, fundamentalmente
cualitativo, del procesamiento de la información mediante procesos
constantes, flexibles y dinámicos. Sin embargo, las redes electrónicas
solo lograron extenderse, a mediados de los años 80, una vez que salieron
al mercado y se volvieron accesibles las computadoras personales (PC).
Esto generó la aparición de software de negocios y aplicaciones de
oficina, específicamente procesadores de textos (killer app),
que tenían por objeto expandir las ventas de computadoras personales.
Ello posibilitó la expansión de las redes electrónicas, lo que posteriormente
favoreció la expansión de las bases de Internet (Internetwork).
Como
afirma Manuel Castells (2001: 15), Internet se ha transformado en
“el tejido de nuestras vidas”, se ha convertido en una parte fundamental
de nuestras sociedades. Sin embargo, a pesar del rápido crecimiento
de las redes digitales, a nadie se le ocurrió por la década del 70
que estos oscuros, solitarios y contraculturales desarrollos iban
a alcanzar semejante envergadura e iban generar nuevas arquitecturas
de intercambio y producción socio-económica a nivel global. Nadie
imaginó el impacto que estas tecnologías podrían tener sobre la noción
de control, sencillamente porque nadie diseño las redes electrónicas
tal como hoy las conocemos. Estas son la resultante de procesos convergentes,
pero que no fueron proyectados como tales. El proceso de las tecnologías -tal como hemos expresado en el primer capítulo-
es un proceso profundo de fusión, negociación y delegación que nos
une directamente a nuestra condición sociotécnica. La historia de las tecnologías muestra claramente
que la contribución de los usuarios finales es crucial para la producción,
adaptación, transformación y gobierno de la tecnología. Este es el
círculo virtuoso que perfecciona las tecnologías captando el proceso
por el cual se retroalimentan los programas iniciales con los usos
finales. Lo que queremos explicar tiene a Internet,
y específicamente a su arquitectura, como caso paradigmático. Esquemáticamente,
Internet puede definirse como un conjunto de nodos compuestos de computadoras
enlazadas, hardware, lenguajes comunes, software y contenidos, donde
circula información procesable tanto por redes de actores-humanos,
como por redes y dispositivos de actantes-no-humanos. El nacimiento
y desarrollo que caracterizó a Internet muestra la capacidad sociotécnica
flexible para encontrar alternativas a las formas organizativas compactas,
cerradas, burocráticas y centralizadas. La historia de Internet muestra
que las redes de actores-humanos y actantes-no-humanos involucradas
en su desarrollo han sido altamente heterogéneas: encontramos laboratorios
de investigación científica de universidades, militares, grandes empresas
y corporaciones, comunidades virtuales que se armaron como laboratorios
de usuarios-finales interesados en la producción, gobierno y regulación
de la red. Según Castells, Internet surgió de una formula insólita (Castells;
2001: 31), nació de la relación entre la gran ciencia, típica de la
posguerra norteamericana, la investigación militar, y la contracultura
libertaria de las universidades norteamericanas de los 60s y 70s.
Sin embargo, los proyectos militares originales rápidamente fueron
re-ubicados -o directamente relegados- y una fuerte tradición de interconexión
alternativa de redes electrónicas generó un espacio de cooperación
e innovación único en la historia de la humanidad
[62]
. En este sentido, Internet es ante todo una creación
cultural atravesada por la idea de un espacio de intercambio libre
[63]
, y ello, sin dudas, se ve reflejado en su estructura
básica. La mayoría de los avances tecnológicos fundamentales para el nacimiento
de Internet derivaron de grandes redes de actores que movilizaron
recursos y conocimiento
[64]
. Internet solo llegó a su punto de aceleración,
no tanto en su etapa de privatización en la década del 90, sino cuando
primó una cultura colaboracionista-productora, sustentada en la libertad
de la información, y en el reconocimiento de Internet, según Benkler
(2000), como un espacio de innovación entre pares, de producción entre
pares. Se crearon e involucraron rápidamente grandes redes comprometidas
en el desarrollo de un nuevo espacio, grandes comunidades que poseían
una fuerte conciencia de tecno-elite en donde primaba la cultura hacker
(Stallman, 2002; Raymond, 2003;). Las mismas estaban generalmente
atravesadas por los principios de libertad de circulación de la información
y apertura de fuentes de los sistemas (Himanen; 2001). Estas redes
de usuarios productores construyeron el espacio abierto que caracterizó
Internet desde sus inicios y generaron las necesidades y usos que
empujaron el desarrollo de Internet tal como hoy la conocemos. La
cultura de la libertad nació entonces de las diferentes redes alternativas
que estaban surgiendo no solo en Estados Unidos de Norteamérica sino
también en los principales centro de innovación del mundo. En este sentido, las comunidades, asociaciones y corporaciones
sin fines de lucro tuvieron la capacidad de generar una sinergia única
aprovechando la capacidad política flexible y abierta de la red
[65]
. Internet desarrolló una fascinante forma de gobierno,
que no dependió de las formas clásicas instituidas. El típico déficit
actual de instancias gubernamentales clásicas en Internet, sorprendentemente,
fue una característica saliente de su desarrollo. Esta es la razón
fundamental por la que no hago foco en este trabajo sobre las formas
organizativas institucionales más evidentes de la red, como por ejemplo
la Corporación de Internet para la Asignación de Nombres y Números
(ICANN
[66]
). La ICANN fue creada gracias a la visionaria tarea
de Jon Postel en Octubre de 1998 y es la institución más evidente
a la cual podríamos recurrir en busca de las tendencias actuales en
la red. De hecho, la ICANN esta inspirada en algunos de los principios
originarios de Internet y soporta, concentra y distribuye algunas
(por suerte no todas) de las funciones de lo que se considera vulgarmente
el gobierno de Internet. Asimismo, podría recurrir con propiedad a
sus hoy instituciones vinculadas: la Internet Engineering Task
Force (IETF) y la Internet Architecture Board (IAB) que
coordinan el diseño del protocolo TCP/IP. Estas instituciones regulan
formalmente Internet a un nivel transnacional. Sin embargo, para el
presente trabajo preferí otro tipo de análisis para observar la gubernamentalidad
y las tendencias actuales en el campo de las regulaciones de Internet. El campo
de las regulaciones de Internet tiene instancias gubernamentales que
están en plena formación, pero que no se corresponden con procesos
evidentes y clásicos de gobierno instituido. La extraña y fascinante
forma de gobierno de Internet proviene de sus orígenes, de procesos gubernamentales
silenciosos que muchas veces se encuentran ocultos en la modestia
de las prácticas cotidianas. En su ya clásico, Galaxia Internet, Manuel
Castells manifiesta que el reto fundamental en la sociedad informacional,
es encontrar actores e instituciones con capacidad y voluntad suficientes
para asumir los retos del gobierno el desarrollo tecnológico (Castells;
2001: 310). El desafío consiste en defender los valores del bien común,
el interés público, los valores que sustentan las sociedades democráticas,
abiertas y libres. Para Castells (2001), producto de la descentralización
política las organizaciones-neo-gubernamentales (ONGs) forman parte
de una nueva instancia gubernamental que esta emergiendo (Castells;
2001: 311). Estas ONGs se abocan a intereses específicos, como -entre
otros- los de la Free Software Foundation, la Open Source
Initiative, o Creative Commons
[67]
. Estas organizaciones-neo-gubernamentales están
contribuyendo a orientar el desarrollo tecnológico, no a través de
formas clásicas instituidas, sino a través de formas innovadoras y
muchas veces subvertoras del orden estatuido. Estas tendencias en
el campo de las regulaciones tienen sus bases en los orígenes de Internet,
en la cultura de la libertad que soportó sus desarrollo, en la cultura
hacker y en las profundas normas sociales que funcionaron como su
instancia regulativa. La arquitectura originaria de Internet permitió el florecimiento
de un espacio abierto y libre de innovación común, que fue construido
y sostenido por las redes comunitarias de usuarios productores y nuevas
corporaciones involucradas en el gobierno de la red. La característica
auto-evolución de Internet se produjo gracias a la flexibilidad y
apertura que son constitutivas del espacio Internet. El espíritu de
cooperación, la cultura de la libertad, y la arquitectura originaria
abierta y transparente, condicionaron los desarrollos futuros de Internet.
El desarrollo auto-evolutivo permitió que los usuarios, establecidos
como pares, se convirtieran en productores de la tecnología que soportaba
la red. Esto promovió la convergencia de redes de todo tipo y de tecnologías
que se mantuvieron relativamente abiertas a las comunidades productoras
interesadas en desarrollar sistemas comunes de comunicación. Este
proceso generó el nacimiento de la Internet como un nuevo espacio
inabarcable para la regulación clásica de espacios y conductas. Según
Lessig (2001) el carácter abierto, transparente y descentrado de la
arquitectura de Internet constituyo la principal fuerza que posibilitó
la configuración de partes esenciales de la Internet a través de su
uso final. Internet
nació con una característica fundamental: su transparencia. Transparencia
referida a su arquitectura originaria y a los principios que todavía
hoy la gobiernan. Internet tiene una arquitectura descentrada, abierta
y flexible. Estas tres características permiten que Internet tenga
una dinámica auto-evolutiva, puesto que las redes de arquitecturas
abiertas pueden adaptarse para que otras redes puedan converger. Estos
calificativos no están usados en vano, puesto que representan importantes
razones históricas e instancias esenciales en el desarrollo de este
nuevo medio. Si bien estas características de la red para muchos analistas
están vinculadas a la contracultura libertaria norteamericana de la
Internet de los años 80, y fundamentalmente, a la publicidad comercial
-que explotó los imaginarios de la Internet- de la década del 90,
estas características pueden ser reconstruidas con argumentos claros
y sólidos. Estas características están insertas en la red y la definen
desde sus orígenes, conforman su arquitectura y han sido la resultante
de procesos técnicos de delegación de funciones provenientes de una
fisión cultural muy particular. A pesar que el crecimiento exponencial
de Internet se produce en la primera mitad de la década del 90, las
bases arquitectónicas de la red ya formaban parte de la estructura
originaria desde principios de la década del 70. Como bien afirma
Castells (2001:31), Internet se vuelve masiva en el 1995, pero claramente
“nació con las marcas de una historia”. La arquitectura abierta de Internet permitió,
por un lado, un amplio acceso público sin restricciones y, por el
otro, permitió que -sin discriminación- todos los que poseían los
recursos necesarios pudieran desarrollar su arte sobre esta plataforma.
La misma funcionó como una invitación y, por ello, se vio favorecida
por la tradición de interconexión alternativa. A esto se sumó que,
la red fue construida de forma descentrada en función del diseño de
intercambio de paquetes de información que se encuentra en sus bases.
Los desarrollos iniciales de Internet tuvieron que prescindir de un
centro neurálgico que controle el tráfico de información, dado que
debían permitirse diversas vías de enlace e interconexión entre los
diferentes nodos. Asimismo, la red fue creada de una forma flexible
y la misma ha tenido una evolución permanente gracias a la apertura
y el diseño orientado a distribuir la inteligencia de la red hacia
sus extremos. En este sentido, la red es auto-evolutiva puesto que
aprovecha aquello que sucede en sus extremos, en sus partes finales
sin necesidad de un control centralizado. Estas características son
consecuencia del diseño estratégico militar original, aunque preferentemente
se deben también a la contribución de diferentes comunidades, laboratorios
de universidades, usuarios productores y empresas que generaron programas
de investigación y soñaron un nuevo sistema de comunicación bajo la
forma de una utopía tecnológica. Por tanto, tres son las características centrales
que quiero resaltar sobre la arquitectura y los principios originales
de Internet. Estas características son actuales y, por tanto, también históricas. Cada
una de las tres refiere a una evolución particular de Internet. En
primer lugar, desde el punto de vista de la evolución tecnológica,
analizo la arquitectura descentrada producto de la conmutación de
paquetes (Packet Switching). Su diseñador principal fue Paul
Baran de la Rand Corporation. En segundo lugar, desde el punto de
vista de la evolución organizacional, analizo como Internet se desarrollo
bajo una arquitectura abierta y flexible producto de la utilización
de un protocolo de comunicaciones que se llama TCP/IP, desarrollado
originalmente por Vinton Cerf y Robert Kahn, pero también por muchos
otros investigadores involucrados en el diseño original de la Internet.
La tercera y última de las características de Internet la enfoco desde
el punto de vista de la evolución del diseño de Internet y, por tanto,
me refiero al argumento End to End. Los diseñadores tempranos
de la red prefirieron redes inteligentes en sus márgenes, en su extremos,
más que una red inteligente en su centro. Estas tres características
conforman aquello que generalmente se llama la arquitectura distribuida,
abierta, transparente de Internet. Paso a describir brevemente cada
una de ellas.
C) La red distribuida:
el packet switching
Para marcar la evolución tecnológica que inauguró
su arquitectura descentrada comienzo por el paradigma del packet
switching. Internet nunca fue pensado como se nos presenta en la actualidad, pero
desde sus inicios presentó la necesidad de construir un sistema descentralizado.
Esta necesidad fue cubierta a través de varios desarrollos y marca
una de las características centrales tanto en la historia, como en
el desarrollo futuro de Internet. Este desarrollo consistió en la
creación de un inmenso espacio sin un centro que controle y dirija
los flujos de información. Así nació un nuevo paradigma que se llamó
conmutación o intercambio de paquetes de información (Packet Switching).
Su desarrollo, allá por los primeros años de la década del 1960, se
debe en parte a los Norteamericanos, Paul Baran de la Rand Corp. y
Leonard Kleinrock del MIT y en parte al Inglés Donald Davies. Aunque
haya sido Paul Baran el que apareció como creador del packet switching,
lo cierto es que este nuevo sistema de telecomunicaciones fue diseñado
y construido en conjunto con otros investigadores
[68]
. El intercambio
de paquetes fue claramente una necesidad de seguridad militar que
trató de resolver el problema hipotético de ataques nucleares simultáneos
sobre los centros de información en los Estados Unidos de Norteamérica.
A pesar que la idea era sin dudas excepcional, el pentágono y las
empresas rechazaron la propuesta en primera instancia. Según Lessig
(2001) la razón principal del rechazo estuvo en que Baran pretendió
involucrar los laboratorios de la empresa monopólica de telefonía
de los Estados Unidos (AT&T) sin advertir que para la red de telefonía
de AT&T, el control y la jerarquía dentro de las redes, eran claves
que sostenían su poder bajo una arquitectura centralizada. La arquitectura
de control que poseía AT&T centralizaba la innovación y protegía
básicamente su modelo de negocios (Lessig; 2001: 33-34). La tecnología
de conmutación de paquetes (packet switching) pretendió con
éxito reemplazar los persistentes circuitos alrededor del cual el
sistema de teléfono estaba construido. Por
tanto, a pasar de la primeras resistencias, Baran continuo
publicando lo que el pensaba como un nuevo sistema de telecomunicaciones
contrapuesto al sistema de las redes clásicas. Luego de un largo recorrido
sus desarrollos fueron atendidos. Baran
pensó en al menos cuatro principios básicos para aportar flexibilidad,
autonomía a los nodos y descentralización de la información. Uso la
digitalización para quebrar y distribuir la información en varios
paquetes separados que pudieran ser procesados tomando rutas alternativas
e independientes dentro de una red. Esta era una forma de ganar en
redundancia, o sea, en múltiples opciones de ruteo de la información
sin depender de una sola fuente. Esto habilitó la posibilidad de que
muchos compartan los cables y/o las conexiones de la red. La conmutación
de paquetes fue, en el inicio de ARPANET, la única solución para las
redes de comunicación de área extendida. De esta forma, se aprovechó
eficientemente el tiempo de silencios que toda red de circuitos tenía
y que la conmutación de paquetes podía manejar con mayor eficiencia.
La serie que componía la conmutación de paquetes se basaba en la separación
de la información por parte de la computadora emisora, etiquetamiento
de los paquetes, (en función de origen, destino y ubicación de cada
archivo separado en el archivo original), envío de los paquetes por
la red a través de los ruteadores y, por ultimo, el rearmado de los
paquetes de información -en función del orden original- en la computadora
receptora. Una de las metas esenciales de ARPANET era diseñar
dispositivos de red que permanecieran activos si parte de la red colapsaba.
Sumado a esto, o mejor dicho provocado por esto, emergió un gran desarrollo
de tecnologías de redes electrónicas que generó, desde comienzos de
los '70, otro aspecto esencial para el futuro de Internet. A saber,
la interconexión de redes, o sea, la interoperabilidad entre diferentes
redes y sus aplicaciones. La necesidad de interconexión de redes y el entorno de arquitectura abierta
se basó en la no modificación interna de cada una de las redes preexistentes
[69]
. Sin embargo, un
protocolo de comunicación que pudiera controlar perfectamente
el nivel de las operaciones en el intercambio de paquetes hubiera
violado el principio del intercambio de paquetes de una red descentrada
y hubiera sido demasiado complejo y lento. Por tanto, independiente de
la estructura de la red física subyacente, se generó un protocolo
de comunicación básico y neutro que funcionó, mediante un software,
entre las redes físicas y las capas de las aplicaciones de usuarios.
En la década del 70 se creó entonces un nuevo protocolo de conexión para
una red ampliada: Protocolo de Control de Transmisiones / Protocolo
de Internet, conocido mundialmente por sus siglas en inglés TCP/IP
(Transmission Control Protocol / Internet Protocol). Paso ahora a analizar el segundo de los tres principios
que ordenaron la arquitectura incipiente de Internet desde sus inicios.
D) La apertura del TCP/IP
La primera
meta del diseño de TCP/IP fue construir una interconexión de redes
que proporcionase servicios de comunicación universales, abiertos
y convergentes. Fue diseñado en su parte inicial (TCP) en 1973, por Vinton Cerf y Robert
Kahn, en el marco de la red de la Agencia de Programas Avanzados de Investigación (ARPA,
siglas en inglés) del Departamento Norte Americano de Defensa. Estos protocolos, se basaron en trabajos iniciales del famoso Network
Working Group. Cinco años después de estos primeros desarrollos,
el mismo Vinton Cerf, junto a otros investigadores, como Jon Postel,
partieron el TCP agregándole el Protocolo de Internet (IP) conformando
de esta manera el protocolo sobre el que funciona la red actualmente.
El TCP/IP como su nombre indica se compone de dos partes principales.
La primera (TCP) es la parte de Protocolo
de Control de Transmisión (Transmission Control Protocol) y
la segunda parte (IP) es el Protocolo de Internet, un conjunto de reglas que gobiernan la forma en que viajan los datos
de una maquina a otra a través de la red. La arquitectura para comunicar
redes que usa los protocolos TCP/IP implica que todas las redes que
intercambiarán información deben estar conectadas con equipos de procesamiento
de información que son denominados compuertas. Tal arquitectura reconoce
como iguales a todas las redes a conectar, sin tomar en cuenta el
tamaño de ellas, sean estas locales o de cobertura amplia
[70]
. El TCP/IP fue adoptado como un estándar del departamento de defensa a principios
de la década del 80, pero no logró imponerse, según Raymond (2003),
hasta no fusionarse con la ya estructurada cultura hacker de UNIX
por el año 1983, y con la cruzada por el software libre de Richard
Stallman unos años después. Aunque el TCP/IP fue una estandarización
muy importante la misma se desarrolló de
facto (de hecho) y no fue uno de los estándares definido por la Organización
Mundial de Estandarización (ISO). Fue impuesta por la fuerza de la
práctica y se volvió masiva con el desarrollo y surgimiento de Internet
tal como hoy podemos visualizarla. El TCP/IP es una simplificación del
modelo de protocolo OSI de siete capas (Open
Systems Interconnection) usado para redes
de computadoras. El OSI, de fácil entendimiento, fue reemplazado por
el TCP/IP que resultó ser más práctico. Su carácter abierto fue lo que lo llevó
a convertirse en un estándar común a nivel internacional superando
el X.25
[71]
. Como afirma Castells, la discusión de fondo estaba,
más que en los protocolos propiamente dichos, en el tipo de redes
que iban a soportar estos protocolos y, sobre todo, en quieres iban
a manejar las redes. En otras palabras, la discusión giraba en torno
al tipo de control que iban a habilitar estos nuevos protocolos sobre
las redes de telecomunicaciones. Para el caso Europeo estaban involucradas
las grandes empresas de telecomunicaciones, las que no veían con buenos
ojos que redes privadas puedan utilizar sus redes públicas. Por el
otro lado, ARPANET en los Estados Unidos, interesada en los protocolos
TCP y en difundir la diversidad e interconexión alternativa sobre
todo tipo de redes (Castells; 2001: 41-42). El TCP/IP
logró superar todas las instancias de competencia con otros protocolos
juntamente por su carácter abierto heredado del OSI. A diferencia
del modelo de referencia OSI que posee siete capas
[72]
, la arquitectura TCP/IP viene definida por una
simplificación de 5 capas jerárquicas e independientes unas de otras
[73]
. El TCP/IP garantiza la comunicación fiable y segura
entre computadoras. Simplificando, vemos que la parte del TCP es la
encargada de fragmentar la información en paquetes y de garantizar
la transmisión fiable de datos entre el que trasmite y el que recepta
la información. Debe, por tanto, encargarse de fragmentar, reagrupar,
detectar errores, gestionar las retransmisiones y controlar en general
el tráfico de datos. El protocolo IP es el responsable de seleccionar,
dirigir y rutear los paquetes fragmentados a través de la red. En
otras palabras, administra la dirección de cada paquete para que pueda
arribar a su destino correcto a través de cada pasarela o router en
la red. Como algunos paquetes del mismo mensaje, serán ruteados en
forma independiente, todos ellos deberán ser nuevamente reunidos por
el TCP en su destino correcto. Dentro de una red para facilitar la comunicación entre diferentes
puntos o nodos las computadoras deben estar identificadas con precisión.
El TCP/IP utiliza un identificador denominado dirección IP, cuya longitud
es de 32 bites. La dirección IP identifica tanto a la red a la que
pertenece una computadora como a ella misma dentro de dicha red. A
diferencia de las clásicas comunicaciones telefónicas que necesitan
centrales y una conexión dedicada -la que se mantiene activa durante
toda la comunicación-, una comunicación TCP/IP de alto nivel es considerada
sin estado, puesto que cada pedido del cliente es tomado como un nuevo
pedido sin relación con el pedido anterior. Esta falta de estado en
la comunicación es lo que permite que pueda funcionar perfectamente
la conmutación de paquetes dejando libres los caminos de la red para
que todos puedan usarla de forma continua y simultanea. La composición
del TCP/IP sostuvo la estructura de capas para posibilitar la mayor
cantidad de interacción distribuida y relativamente anónima. La arquitectura
de la red fue diseñada para transportar datos de una parte a la otra
de la red mediante estos protocolos que en ningún caso revelan información
sobre las personas conectas a la red, ni sobre los datos intercambiados.
La decodificación y ejecución de la información trasportada se dejó
en manos de las aplicaciones que se encuentran en cada uno de los
extremos de la red. Este diseño, según Lessig (2001), claramente minimalista,
resultó en la desactivación del control centralizado que ya había
anticipado el packet switching. Es necesario pasar a la tercera, y última, de las tres características
de este apartado. Mi perspectiva ahora pasa a tener en cuenta la evolución
del diseño de la red y, tal vez, los principios y argumentos filosóficos
que se encuentran en las decisiones del diseño de Internet. Nos referimos
al argumento End to End (E2E), a través del cual los diseñadores
originarios prefirieron redes inteligentes en los márgenes, en su
extremos, en los finales de la red, más que redes inteligentes en
su centro. Este principio, como es obvio, continua y es parte constitutiva
de los dos desarrollos que he descrito anteriormente y conforma la
característica general de un tipo específico de arquitectura de redes.
Puede decirse que este principio E2E es la mayor especificidad política
al momento de diseñar una red. ¿Dónde debemos ubicar la inteligencia
de una red? ¿Cuál es nuestro reservorio de diversidad, libertad, democracia
e innovación? La respuesta es obvia: hay que preferir la diversidad
y la distribución a la homogeneidad de un control centralizado. Sin
dudas, el argumento E2E es una de las lecciones más importantes en
el desarrollo de Internet.
E) El principio de la incertidumbre:
E2E
A diferencia
de la red de teléfonos, o de la red de telégrafos, pero también a
diferencia de otras redes como las de televisión o las de televisión
por cable, en la Internet subyacen principios bien diferentes que
hay que proteger desde el punto de vista filosófico-político. La red
de televisión, por ejemplo, es una red de señales centralizadas, es
una red cerrada y no interactiva. Por el contrario, como vimos, las
tecnologías de algunas redes de computación pueden ser descentradas,
abiertas y fundamentalmente interactivas. Como en el caso de Internet,
estas redes heterogéneas son arquitecturas par-a-par (peer to peer,
o P2P), o sea, redes donde cualquiera de los integrantes puede funcionar
como emisor o receptor de información sin importar su ubicación. Mejor
dicho, esta relación entre los que se llaman servidores y clientes
es completamente reversible. Siguiendo la comparación vemos que la
red de teléfonos al igual que la Internet es interactiva. Sin embargo,
la red de teléfonos tiene una inteligencia y un control que son centralizados.
Tal como afirma Benkler, la digitalización llevó a la descentralización
del medio Internet y en este sentido, los dos modelos con los que
comparamos Internet (TV y teléfono) fueron centralizados y basados
en una arquitectura de red distinta de Internet (Benkler; 1998). La digitalización
y la convergencia de las tecnologías dieron a Internet la posibilidad
de desarrollar una desconcentración de funciones básicas, las que
quedaron plasmadas en su arquitectura original. Paul Baran trató de
evitar la concentración en las comunicaciones y propuso un tipo de
tecnología de intercambio de paquetes contrapuesto a las omnipresentes
redes de telefonía basada en circuitos. Dentro de Internet encontramos
comunicaciones repartidas entre lo que se llaman genéricamente clientes
y servidores. El ‘cliente’, está representado por los programas que
funcionan en la máquina del usuario final y se comunican con un ‘servidor’
para que le provea datos o para enviarle información. El servidor
es también una computadora que, junto a los programas de almacenamiento
de información, procesa requerimientos y sirve a los usuarios-clientes
finales. Lo interesante de Internet es que estas instancias de comunicación
son fácilmente reversibles y cualquier computadora puede funcionar
como servidor o como cliente. Esto es lo que se conoce como arquitectura
par a par (P2P), una arquitectura que habilita la comunicación de
iguales a iguales de una forma reversible y que posee un procesamiento
distribuido de la información. Las
primeras computadoras (mainframe) concentraban la información y su
procesamiento, en una computadora central a la que se conectaban terminales
o computadoras tontas o bobas. Es importante resaltar que los diseñadores
de redes distinguen entre las computadoras que están en el fin o en
el margen (end o edge) de una red, de aquellas otras
que soportan y enlazan las redes o genéricamente se encuentran un
su centro. Sin embargo, con la aparición de las computadoras personales
por los años 80 se produjo un cambio fundamental en las redes electrónicas.
Las redes de computadoras fueron evolucionando hasta lograr distribuir
trabajo, compartir información y repartir funciones entre clientes
y servidores. Los recursos pasaron a ser compartidos y la relación
cliente servidor paso a ser una relación reversible y polivalente.
Estos procesos, dado que remiten a la comunicación dentro de las redes
de computadoras, fueron más bien invisibles, aunque claramente se
iniciaron el desarrollo de una inteligencia interconectada y distribuida.
Para
diseñar las partes que componen el entorno Internet los diseñadores
de redes tuvieron en cuenta un principio básico. Retomando los análisis
de los primeros arquitectos de redes (1981) Lessig describe el argumento
end to end (E2E). El Argumento End to End fue descrito
por primera vez en 1981 por los arquitectos de redes Jerome Saltzer,
David Clark, y David P. Reed (Lessig; 2001: 34). En un paper de 1981
[74]
estos autores afirman que el argumento E2E es un
principio de diseño que ayuda a distribuir funciones dentro de un
sistema de computadoras distribuido. El mismo principio guía a los
diseñadores de redes en el desarrollo de protocolos y aplicaciones
(Saltzer, Reed, Clark; 1981). El Argumento End
to End sugiere que las funciones ubicadas en un nivel bajo de
un sistema, o sea, para nuestro caso, ubicada en las máquinas terminales
de la red, pueden ser redundantes. Redundantes en el sentido que pequeños
valores se suman a un sistema mayor con el objeto de soportar funciones
esenciales para la mejora de las transmisiones, la confiabilidad de
las mismas y la seguridad de los de sistemas y redes. Según los autores,
el argumento E2E puede ser visto como parte de una organización sobre
principios racionales dentro de un sistema basado en diferentes capas
(Saltzer, Reed, Clark; 1981).
El principio
E2E que guió a los diseñadores de redes, algunos protocolos y muchas
de las aplicaciones que han revolucionado Internet puede sintetizarse
de la siguiente forma: antes que localizar la inteligencia centralizada
dentro de una red, es preferible ubicarla en muchas pequeñas funciones
que son requeridas por diferentes aplicaciones distribuidas. La resultante
de este argumento será que la complejidad y la inteligencia, en vez
de concentrarse, son empujadas hacia fuera por la misma red. El criterio
consistió en lograr redes simples en su centro, con aplicaciones complejas
e inteligentes en sus extremos. Dirá Lessig que los diseñadores tuvieron
en mente el diseño de redes simples con aplicaciones inteligentes
(Lessig; 2001: 35). En este sentido, Lessig afirma que la razón por
la que se optó por este diseño fue la flexibilidad, inspirada por
cierta humildad (Lessig; 2001: 35). Este argumento, junto a los principios
subyacentes, han sido utilizados en muchos contextos y se han transformado,
según Raymond (2003), en algo común para los diseñadores de redes,
protocolos y sistemas operativos. El argumento
E2E ubica la inteligencia dentro de la red en los finales de esta,
en los márgenes. En el diseño E2E tanto la complejidad, como la inteligencia
de la red, esta desplazada hacia los extremos de la misma red. En
otras palabras, las computadoras dentro de las redes deben efectuar
solo funciones simples que son necesitadas por un conjunto de aplicaciones,
mientras que las funciones que son necesitadas solo por algunas aplicaciones
deben ser ejecutadas en el extremo de la misma. El argumento E2E impone
una estructura sobre el diseño espacial, más que resolver los problemas
de diseño propiamente dichos. Sirve para justificar y balancear los
análisis y las opciones de diseño. Estos postulados han servido para
definir estos principios de diseño de redes dentro de lo que los autores
llaman ‘active networking’ (Reed, Saltzer, Clark; 1998). El
Request For Comments N° 1958 de la Internet Arquitecture
Board (IAB) es claro al resaltar la importancia del principio
E2E. Especifica que el trabajo de la red esta en transmitir datagramas
tan flexibles y eficientemente como sea posible y que el trabajo restante
debe ser hecho en los márgenes de la red (NWG; RFC N°1958; 1996). Esta
es la consigna que marca el acercamiento a un nuevo paradigma en el
campo de las comunicaciones que hace uso de reglas simples para la
resolución de problemas complejos. En otras palabras, estoy mostrando
los principios de una arquitectura de red que no fue nunca planificada
completamente, pero que gracias a la incertidumbre evolutiva, y a
una actitud respetuosa hacia lo nuevo, fue construida para establecer
un marco mínimo y básico desplazando la carga del procesamiento de
la información al espacio donde mejor podría haberlo ubicado, o sea,
en todos y cada uno de los constructores-productores del mismo espacio.
El diseño de la red, a través de los principios que hemos estado viendo,
desactivo el control centralizado justamente para que nadie pudiera
controlar como y hacia donde la red podía crecer. No fue algo premeditado
y sus resultados han sido francamente imposibles de prever. Todavía
hoy, desde una perspectiva evolutiva, sus resultados son realmente
sorprendentes. La arquitectura
de la red originaria dejó completamente abierta la posibilidad de
que las terminales extremas pudieran tener un control distribuido
a través de sus aplicaciones. Este punto fue esencial para el desarrollo
de Internet, un desarrollo sin cuellos de botellas y claramente fuera
de control. Mejor dicho, bajo un control distribuido, medido y responsable.
En este sentido, Internet se asemeja más a un organismo biológico
que a un nuevo medio masivo de comunicación
[75]
. ¿Que ocurre cuando no se conoce como se desarrollaran
algunos espacios y ciertas tecnologías? ¿Qué ocurre cuando las mediaciones
entre actores-humamos y actantes-no-humanos superan la posibilidad
de prever las posibles implicancias de sus asociaciones? La opción
responsable que marca la historia de Internet es que si no se sabe
cuales son las mejores opciones, conviene que todos contribuyan en
la conformación del espacio, dando la posibilidad de que algo nuevo
emerja, dejando que las redes simples -sin intervención centralizada-
habiliten nuevos usos no previstos inicialmente, o mejor dicho imposibles
de prever. Este es un elemento esencial de la historia de Internet.
Tal como afirma Lessig, Internet no es la única red en seguir el diseño
E2E, aunque si puede afirmarse que es la primera red de computadoras
que nació con este diseño en su arquitectura (Lessig; 2001: 39). El principio
E2E mas que una estrategia fue una actitud respetuosa (Lessig; 2001:
39), basada en la idea de la incertidumbre. Cuando no sabemos la forma
en que un sistema se desarrollará, estamos obligados a construir un
sistema que permita una amplia gama de desarrollos. Esta fue la motivación
o actitud principal de los arquitectos originales de Internet y estas
fueron las tecnologías que lo gestaron. Como bien escribe Javier Candeira
(2001) debemos tener en cuenta cuales son las implicancias de las
diferentes formas organizativas-evolutivas dentro de Internet. De
allí la importancia política vital de las arquitecturas como forma
de configurar la ecología informacional de nuestras sociedades. De
aquí la trascendental importancia de las nuevas mediaciones técnico
regulativas emergentes que codifican la capa de las aplicaciones.
Estas fueron las bases de lo que hoy conocemos como arquitecturas
par-a-par, las que pueden ofrecer un espacio de intercambio e innovación
por fuera de un control centralizado y asfixiante. De hecho, Internet
fue concebida en la última parte de los 60 como una arquitectura P2P
donde ARPANET tenía como principal objetivo mantener una relación
simétrica y equitativa entre los pares actores que se conectaban a
la red
[76]
. La tecnología
de intercambio de archivos par-a-par puede ser definida entonces como
el conjunto de protocolos y arquitecturas que permiten a los usuarios
finales, sin distinción de jerarquías (o al menos no más jerarquías
que las que una comunidad quiera establecer), ofrecer, copiar, intercambiar
o ejecutar, contenidos privados sin que ninguna instancia pública
o privada centralizada deba legítimamente controlarlos. El crecimiento
de las redes electrónicas de intercambio y producción entre pares
(P2P) han generado en pocos años cambios profundos en las formas de
comunicación y organización social. No solo han puesto en pánico a
las industrias de entretenimiento y culturales, y a los gobiernos
de los estados nación, sino que las arquitecturas P2P -basadas en
los principios que hemos ido analizando- están alterando los términos
de intercambio cultural, económico y social a nivel mundial. Algunas
corporaciones comerciales están preocupadas por la pérdida de control
sobre las industrias culturales debido al cambio de paradigma en la
arquitectura de las redes. En el mismo sentido, los gobiernos están
obsesionados por la perdida del control centralizado frente a una
tecnología distribuida, abierta y transparente como Internet. El principio
E2E que subyace en la red puede claramente visualizarse a través de
las tecnologías P2P. Este principio desactivó el control central en
el desarrollo de Internet y es allí donde Lessig ve la Internet como
una innovación común que conforma un espacio común, o sea, un espacio
bajo controles difusos y sostenido por las comunidades donde los innovadores
pueden desarrollar y desplegar nuevas aplicaciones o contenidos sin
el permiso de nadie. Sin embargo, todo indica que nos encontramos
frente a una lucha por el control de las formas organizativas en las
redes de información. Para Siva Vaidhyanathan (2003) estas arquitecturas
P2P generaron una tensión política irreversible. Las mismas están
atravesadas por el diseño de entornos donde se involucran al menos
dos formas o modelos en relación a la organización informacional.
Según Vaidhyanathan (2003) en la organización informacional podemos
diferenciar entre anarquismo y oligarquismo informacional. Ambos se
retroalimentan, oponen y reaccionan recíprocamente. El oligarquismo
informacional hace uso de los pánicos morales e intenta por diferentes
medios conservar la concentración y acumulación de la información.
El anarquismo informacional se vincula directamente con el libertarismo
que intenta lograr la descentralización y distribución de la información.
Si bien el anarquismo-libertarismo no es la democracia propiamente
dicha, según Vaidhyanathan (2003), aparece como una buena forma de
resistir la tiranía y el conservadurismo.
F)
El control sobre las capas analíticas de Internet
Llegados
a este punto, creo importante avanzar en dirección al análisis de
la composición del espacio Internet. Las tensiones en el campo de
las regulaciones en Internet pasan hoy por el control sobre las diferentes
estratos o capas que componen la red. Comprender estas capas es esencial
para el campo de las regulaciones y para la creación de principios
que puedan dar un marco que garantice la libertad y transparencia
de la arquitectura política originaria. El espacio Internet está compuesto
analíticamente por diferentes plataformas o capas que están inspiradas
en el modelo paradigmático del protocolo que estructuró su arquitectura
política
[77]
. El funcionamiento de cualquier sistema de comunicación
puede ser dividido en capas y, específicamente, siguiendo a Yochai
Benkler, podemos caracterizar analíticamente a Internet como un espacio
constituido por tres capas superpuestas e interdependientes (Benkler;
2000). Las capas se pueden ordenar en forma ascendente de la siguiente
manera: capa física, capa lógica, capa de contenidos. Existe la posibilidad
de dividir también el medio de comunicación Internet en 6 capas analíticas.
Así lo hacen convenientemente Lawrence Solum y Minn Chung (2003)
[78]
, aunque a los fines del presente trabajo preferimos
tomar el modelo simplificado de 3 capas de Benkler. La primera
de las capas es la llamada ‘capa física’ o ‘capa de infraestructura’.
Lessig la define como la capa
a través de la cual las comunicaciones viajan (Lessig; 2001: 23) y
está compuesta por computadoras, cables, hondas y toda la infraestructura
que hace posible un medio de comunicación como Internet. Puede también
definirse como la capa del hardware. La segunda de las capas, ubicada
en medio, continúa el camino ascendente y es la llamada ‘capa lógica’,
o ‘capa del código’, y está compuesta por todos los componentes que
hacen que la parte de infraestructura efectivamente funcione. En otras
palabras, es la capa en donde podemos ubicar a los protocolos, algunas
arquitecturas y las aplicaciones, software y servicios que hacen funcionar
el hardware. La tercera capa es la llamada por Yochai Benkler (2000)
la ‘capa de contenido’. Es la capa superior y está compuesta de todo
aquello que es escrito, dicho, mostrado, publicado o trasmitido a
través de los cables y aplicaciones de la red (Lessig, 2001: 23). Todas
las capas en las cuales puede ser dividida una red como la Internet,
están compuestas por diferentes tipos de recursos, los que a su vez
pueden ser más o menos controlados. Los recursos, siguiendo a Lessig
(2001), pueden ser soportados por diferentes redes de actores: el
estado, las empresas, las corporaciones -con o sin fines de lucro-,
por universidades, por particulares, o bien, pueden ser recursos soportados
en común, o sea, comunitariamente por el conjunto de un colectivo
[79]
. Los recursos pueden ser básicamente ‘libres’ o
‘controlados’. Para Lessig los recursos libres son aquellos disponibles
para ser tomados por cualquier persona sin solicitar permiso. Por
el contrario, los recursos controlados son aquellos en los que se
requiere un permiso de alguien antes de que el recurso pueda ser usado
(Lessig; 2001: 11). Si bien la regulación sobre los recursos de Internet
es francamente inevitable, existen diferentes tipos de control entre
los cuales se puede optar. En este sentido, los recursos libres son
fundamentales para la diversidad cultural, la innovación y los valores
democráticos. En el otro extremo encontramos que la regulación exhaustiva
de bienes dentro del régimen de propiedad-exclusividad pueden brindar
mayor eficiencia en la productividad de los recursos desde el punto
de vista económico. Entre estos extremos, un mundo de posibilidades,
sistema y regulaciones posibles. ¿Cuál
es el nivel de control que puede soportar cada una de las capas de
Internet? ¿Cuál es el beneficio o perjuicio que estas opciones traen
aparejada para la ecología informacional de nuestras sociedades? A
decir verdad, dentro del ciberespacio existen partes más regulables
que otras. La ecología informacional de las redes electrónicas depende
del nivel de control y regulabilidad que soporte cada una de las capas
analíticas, o sea, depende de la regulabilidad que soporte la arquitectura
de la red como instancia política (Kapor; 1990; Lessig;1999). La mayor
o menor regulabilidad de Internet no está determinada por la naturaleza
esencial de cada una de las redes, sino por su arquitectura como instancia
política. De allí la importancia de conocer el estado de las mediaciones
técnico políticas de nuestro entramado sociotécnico en un momento
determinado. Como la arquitectura flexible de Internet lejos está
de tener una naturaleza pétrea e inalterable, la regulabilidad del
espacio Internet depende de la naturaleza o la composición del código
que gobierne la arquitectura del ciberespacio. Por tanto, el nuevo
arte regulativo, sin dudas, es la clave para que auscultemos las nuevas
tendencia dentro del campo de las regulaciones en Internet. De esta
forma, podemos observar que la capa de la infraestructura de Internet
es una capa altamente controlada. Las computadoras, los name rootservers,
los routers, los cables o los servidores pertenecen a alguien:
estados, empresas, universidades, o bien, particulares. Esta capa
esta altamente controlada bajo el régimen de la propiedad privada.
En la capa del hardware, puede decirse que Internet es una gigantesca
red de infraestructuras privadas y de tecnologías propietarias. Sin
embargo, esta es solo una de las capa de la red, puesto que la mayor
parte de Internet en lo referido a su capa lógica se construyó a base
de estándares no propietarios, o sea, por fuera del régimen de la
propiedad privada. Los mismos han sido desarrollados con financiamiento
de los estado, por empresas, universidades, investigadores privados,
grandes comunidades virtuales, o directamente en muchos casos, por
usuarios productores del espacio Internet que han dejado sus desarrollos
en el dominio público, o bien, los han licenciado libremente para
que se facilite su uso masivo. Aunque la Internet fue construida sobre
una infraestructura controlada por el régimen de la propiedad privada,
los protocolos abiertos de la Internet (TCP/IP) han creado un espacio
de innovación donde la información es libre a nivel global. El espacio
Internet fue, como bien afirma Lessig, un espacio de libertad construido
sobre una plataforma controlada, pero esta libertad construyó, a su
vez, una innovación común en la capa lógica. El espacio de libertad
en la capa del código sin dudas fue posible gracias al aporte de un
diseño arquitectónico que ubicó la inteligencia en los extremos, pero
que fundamentalmente, como afirma Castells, se nutrió de los componentes
contraculturales y libertarios del ambiente académico norteamericano
de los años 70. Esta innovación conformó un espacio común a través
de una específica arquitectura técnica que permitió que la creatividad
floreciera. En este sentido, Lessig (2001) sostiene que existe un
beneficio alto para los recursos soportados en común y que es justamente
Internet la mejor evidencia de ese beneficio. Sobre esta capa lógica
es donde el código reina como el nuevo regulador proactivo en la construcción
y diseño de un nuevo entorno sociotécnico. Aquí es donde el código
regula las aplicaciones, las interacciones y las asociaciones de esta
nueva ecología informacional. En la capa lógica se enfrentan, de una
manera radical, el software libre contra el software propietario y,
por ello, es la capa a proteger como espacio de innovación común
[80]
. El software
de código abierto, por tanto, es fundamental tanto para la capa analítica
lógica como para su relación con las otras capas de la red. El código
abierto es menos proclive a la regulación jurídico clásica que el
código cerrado. Algunas partes del ciberespacio aún son bastante libres
aunque, ciertamente, ello no quiere decir que no están reguladas de
alguna otra forma. Todo el ciberespacio está atravesado por mediaciones
políticas a todo nivel. Lo cierto es que, el código abierto constituye
un importante mecanismo de control frente al poder del estado nación
y de algunas corporaciones comerciales. Mientras el código permanezca
abierto, el poder del estado y de algunas corporaciones comerciales
podrá ser morigerado. En este sentido, Internet todavía es una red
constituida por un conjunto de protocolos abiertos, no propietarios,
para cuyo acceso y utilización no se requerían mayores controles en
relación a la identidad. Como vimos, los protocolos sobre los que
se basó Internet no revelan información alguna acerca de la persona
que se conecta a la red ni de los datos que intercambia. La red conserva
cierto anonimato y se limita a transportar los datos dejando su interpretación
a las aplicaciones que se encuentran en sus extremos. Nadie necesita
solicitar permiso para utilizar determinados servicios básicos, ni
para instalar o experimentar aplicaciones en Internet. El argumento
E2E, como diseño minimalista, desactiva el control centralizado y
deja abierta la red para cualquier innovación que se desarrolle. Por
ello, tanto el software libre, como las arquitecturas par-a-par son
buenos ejemplos políticos de esta libertad distribuida que produjo
Internet. Sin
embargo, existe en la actualidad –desafortunadamente- una tragedia
de los espacios comunes de Internet. Las tecnologías de control que
se desarrollan sobre la arquitectura originaria de la red, según James
Boyle (2001), están terminando con la apertura y transparencia que
la caracterizó. Cada vez más Internet está adoptando una amplia arquitectura
de regulación, lo que genera una tragedia de los espacios comunes, del espacio de innovación
común que los protocolos de Internet permitieron. Esta tragedia es
la tendencia que resulta de agregar tecnologías de control e identificación
a una red relativamente anónima, abierta y transparente. Como ha quedado
claro en el primer capítulo, la tendencia hacia la regulación de todos
y cada uno de los aspectos de la vida social respalda siempre la visión
socio-económica. El estado y las corporaciones comerciales prefieren,
obviamente, arquitecturas que favorezcan una mayor regulabilidad y
que permitan un incremento de las tecnologías de control en el ciberespacio.
Las tecnologías de control que promueven credenciales son, como establece
Siva Vaidhyanathan (2003), tecnologías inherentemente oligárquicas
interesadas en saber quien, por qué, y como, realiza tal actividad
que puede estimarse valiosa, riesgosa, o necesariamente controlable.
A diferencia de épocas pasadas el control exhaustivo sobre la red
es ahora posible, aunque no siempre deseable o conveniente. Las tecnologías
de control se pueden situar por encima de los protocolos y códigos
que componen la capa lógica de Internet con el fin de volver más regulable
la red para el comercio y las siempre difusas razones de estado. Las
arquitecturas de control se han vuelto posibles y pueden incorporarse
fácilmente a Internet gracias a la apertura y transparencia de la
arquitectura originaria. Las regulaciones que las corporaciones comerciales
desarrollan, a través del código del espacio de las aplicaciones,
funcionan en connivencia con las regulaciones jurídico clásicas que
el estado puede habilitar. El control es codificado por parte del
comercio con el apoyo-anuencia o directamente la ausencia-impotencia
del estado-nación. La red se desplaza, incluso sin el apoyo del estado,
hacia una arquitectura de control que favorezca las credenciales para
el comercio electrónico. Este es uno de los peligros más importantes
en relación al campo de las regulaciones en Internet. La ausencia
de hechos auto-identificadores en el ciberespacio reduce su regulabilidad
directa y ello aumenta el crecimiento de las tecnologías de control.
Estas tecnologías, según Lessig (2001), funcionan mediante la posibilidad
de identificar y discriminar quienes hacen, que hacen y como lo hacen,
dentro de Internet. Las tecnologías de control, siguiendo a Lessig
(1999-A), tienen como objetivo que la red aumente en la segmentación
y la fragmentación para permitir credenciales (identificar quien,
que, como), etiquetar paquetes de información y lograr una especie
de zonificación, donde se condiciona el acceso y se discriminan personas
y contenidos
[81]
. Es necesario, como afirman claramente Solum y Chung (2003), que los principios elementales involucrados en el funcionamiento y desarrollo de Internet se vuelvan transparentes para el ejercicio regulativo de carácter público. En este sentido, creo que el respeto de la arquitectura originaria, la separación, autonomía, transparencia e integridad de las capas que componen la red son esenciales para nuestra ecología informacional. El código construye el entorno y modifica, junto con los otros reguladores, la arquitectura política de la red. El código controla la actividad que se da en los extremos periféricos de Internet, en el espacio de las aplicaciones de Internet. Por tanto, este código determina lo que las personas pueden y no pueden hacer. Siguiendo las analogías propuestas, el código puede ser visto como una especie de ley que decide sobre la arquitectura de Internet. Pero, cuando exclusivamente los intereses comerciales son los que determinan la arquitectura de los sistema nos encontramos frente a una traducción peligrosa donde la codificación es transformada en aquello que antes era la ley pública. De esta forma, estamos en presencia de una ley privada y de una privatización de la legislación-codificación pública. Por tanto, dedico el próximo capítulo a esta problemática y a auscultar las estrategias subvertoras utilizadas para diseñar, regular, gobernar, y en suma, conquistar silenciosamente el ciberespacio.
El análisis de las transformaciones actuales
en el campo de las regulaciones me ubica finalmente en las capas superiores
de Internet donde puede observarse claramente la emergencia de un
nuevo arte regulativo. En este capítulo me concentro fundamentalmente
en la clausura que se esta produciendo en la capa de contenidos de
la red, aquello que llamo la tragedia de los bienes intangibles comunes
de la mente. Me enfoco puntualmente en las nuevas organizaciones que,
con fuertes intereses políticos, están emergiendo para formar parte
del campo de las regulaciones. Estas pretenden regular el ciberespacio
a través de codificaciones proactivas que construyen el ciberespacio
mediante políticas alternativas. Comienzo el capítulo analizando algunas
estrategias regulativas que ayudaron a mantener la apertura de la
capa lógica en la década del 80 y hago hincapié en la emergencia de
una corporación sin fines de lucro, una organización-neo-gubernamental,
involucrada directamente en la regulación y gobierno de las capas
lógica y de contenidos del ciberespacio. Me refiero, específicamente,
al laboratorio Creative Commons que, a través del nuevo arte
regulativo, protege el ambiente digital de los bienes intangibles
de la mente.
A)
Las mediaciones técnico regulativas libres, abiertas y privadas
El espacio Internet,
como he analizado siguiendo a Yochai Benkler (2001), está compuesto
por tres capas superpuestas e independientes. La capa más baja, capa
física o de infraestructura, es una capa limitada en función de su
disponibilidad
[82]
. La capa física, siguiendo a Lessig (2001), tiene
claramente delimitado quienes son dueños y el tipo de control que
permite su sistema de administración. Para Lessig (2001) la creación de la propiedad privada, como institución,
se relaciona con una forma regulativa de carácter distribuido que
tiende al mejor aprovechamiento de algunos recursos. La propiedad
privada, contrapuesta a la propiedad centralizada, es un sistema jurídico
político que procura ordenar las relaciones socio-económicas. Para
Lessig (2001) la propiedad privada es un sistema que mantiene un equilibrio
entre el exclusivo control de individuos distribuidos (de diferentes
tipos) y los fines del estado centralizado. Si bien este modelo “propietario”
es evidente en la capa física de Internet, tanto en la capa del código
como en la capa de contenidos, el control y la distribución sobre
los recursos no está tan clara. En las capas superiores no están establecidos
los criterios ni las consecuencias básicas que las diferentes formas
de administración sobre las capas superiores de Internet pueden aparejar.
Sin embargo, estas discusiones son vitales para la ecología informacional
de nuestras sociedades dado que nos encontramos frente a un crecimiento
exponencial de codificaciones privadas y tecnologías de control que
pueden clausurar y restringir los espacios comunes en la red. La capa del código, o
capa lógica, tal como explica Lessig (2001) ha tenido un desarrollo
y un gobierno completamente diferente a la capa física. Históricamente,
la producción de software al igual que muchos proyectos que soportaron
el desarrollo de Internet, estaban caracterizado por su apertura y
transparencia. Mejor dicho, estaban caracterizados por la posibilidad
de (re)producción que la misma habilitaba. Todos permitían, ‘como
algo natural’, ver y manipular el código fuente de los sistemas. Cualquier
persona o programador podía ver como el programa estaba diseñado,
construido, donde fallaba o donde podía ser optimizado. Sin embargo,
el diseño y desarrollo de software comenzó, a principios de la década
del 80, a verse envuelto en un proceso estructural de clausura bajo
arbitrarias y complejas barreras jurídico clásicas. El código que
regulaba su producción comenzó a cambiar y diferentes reguladores
comenzaron a mixturarse para lograr balancear su producción según
los fuertes intereses en juego. Los intereses de las empresas y corporaciones,
fundamentalmente norteamericanas, que comenzaban a desarrollar el
software debían verse protegidos (o privilegiados) ante la futura
competencia tanto en el mercado interno como en el mercado mundial. Con el crecimiento de
las primeras políticas conservadoras del gobierno de Ronald Regan en
Estados Unidos de Norteamérica, estos modelos de negocios comenzaron clausurar la producción libre de software
y esto afectó seriamente la
libertad de expresión que reinaba el diseño de software. El código
que circulaba libremente entre las comunidades de programadores comenzaba
a comodificarse, a volverse una mercancía, y a intercambiarse por
dinero. Esta situación contravenía directamente el espíritu de la
ética hacker en la que eran formados los mejores programadores en
los laboratorios norteamericanos (Himanen: 2001; Williams; 2002).
Código por dinero, según Sam Williams (2002), parecía ser el nuevo
escenario en la producción del software. La clausura del código consumaba
una apropiación privada de un capital que, en grandes partes, había
sido desarrollado colectivamente por la convergencia y acumulación
de técnicas muy antiguas de nuestra condición sociotécnica común
[83]
. Afortunadamente aparecieron algunas voces que
resistieron el embate de los nuevos modelos de negocios propietarios
que atentaban contra la diversidad cultural de nuestra condición sociotécnica.
Richard M. Stallman emerge a principios de los 80 como el programador
(filósofo) que plasma su arte a través de la programación del software
(Lessig; 2002). Según las palabras del mismo Stallman (2002) su intención
fue crear una nueva comunidad de intercambio y producción de software
de acuerdo con una ética hacker de cooperación y libertad sobre la
que Internet había podido desarrollarse como un espacio de innovación
común. Por mediados de la década
80, con el claro objetivo desarrollar un sistema operativo completo
que no fuese UNIX
[84]
, pero también con el propósito de eliminar las
restricciones sobre el copiado, redistribución, estudio y modificación
de programas de computadoras, Richard M. Stallman lanzó el proyecto
GNU
[85]
. Había
que preservar, proteger y promover las libertades de ejecución, uso,
estudio, copia, modificación y distribución de software. Para ello,
Stallman creó también la Fundación para el
Software Libre (Free Software Foundation) que tuvo como misión mantener
la apertura del código fuente y la protección de algunas libertades
esenciales que iban desde libertades individuales, pasando por las
comunitarias, y llegando hasta las asociativas
[86]
. Stallman tomo sobre sus espaldas, como bien afirma
Williams (2002), una gran decisión moral y emprendió una cruzada por
el software libre, por la apertura y libertad del software. El movimiento
compuesto por la FSF junto a otras iniciativas posteriores, también
involucradas en la apertura y la libertad de las fuentes (Open
Source Iniciative - OSI)
[87]
, han tomado a cargo la defensa de libertades fundamentales
sobre la ejecución, estudio, adaptación, producción de trabajos derivados
y distribución bajo ciertas condiciones del software. Pero,
¿cómo garantizó la comunidad del software libre de Stallman algunas
de estas libertades básicas en relación a la producción, copia, distribución
y modificación de software? En este punto se evidencia la compleja
articulación de estrategias basadas en los diferentes reguladores,
y tal vez el primer antecedente fuerte de arte regulativo, que he
analizado en los capítulos anteriores. Las corporaciones y empresas
desarrolladoras de software utilizaban argumentos jurídicos anclados
en la propiedad intelectual para frenar tanto la producción transparente
de software como su copia, modificación y distribución. Richard M.
Stallman descubrió, un tanto anacrónicamente, que a pesar de la clausura
del código fuente todavía tenía posibilidades de controlar los usos
del software común diseñado por las comunidades de programadores.
En este sentido, Stallman junto a la comunidad de la cual era parte,
desarrolló un instrumento jurídico -una licencia-, que creó las condiciones
para que el movimiento de software libre pueda sostenerse en el tiempo.
Con Stallman a la cabeza, en 1985 desarrollaron una licencia que tenía
como objetivo frenar la transformación del código libre en código
propietario. Específicamente, me refiero a la Licencia Publica General
del proyecto GNU (GPL, por sus siglas en ingles = General Public
License). La GPL
implicó la unión de diferentes codificaciones articuladas para un
mismo fin. Como elemento insólito e innovador para la época, la licencia
GPL, se constituyo en un verdadero hack
[88]
al sistema del copyright angloamericano.
Inauguró, por 1985, la escritura de un nuevo programa lejano a la
codificación digital, pero cercano a la regulación jurídica. Stallman
llamó al complemento de su procesador de texto Emacs 15 con el nombre
de Copyleft. Esta unión se transformó rápidamente en la piedra
filosofal
[89]
de la comunidad de programadores y usuarios de
software libre (y luego también, aunque con diferencias, para la escindida
comunidad de código abierto
[90]
). La solución que encontró Stallman ha servido
para pensar modelos dentro del campo de las regulaciones en Internet.
El mismo Linus Torvalds (1994), creador del corazón del sistema operativo
LINUX, opina que la opción por la GPL fue una de las mejores decisiones
de diseño que tomo en sus desarrollos. La GPL esta cuidadosamente
pensada
[91]
para poder, una
vez registrada la obra bajo el histórico copyright, limitar
o gobernar las consecuencias futuras de la obra en manos de una comunidad
de usuarios-productores manteniendo la libertad originaria. Las obras
no son puestas bajo el dominio público, como generalmente se piensa,
sino que se licencia bajo condiciones específicas. Los términos bajo
los cuales la GPL gobierna los usos de la obra son flexibles y liberales,
aunque licencia también tiene fuertes detractores que critican su
radicalidad. Por un lado, encontramos fuertes defensores, puesto que
se ha ganado fama de ser una licencia que promueve la libertad de
expresión, de asociación y la solidaridad. Sin embargo, por el otro,
se la acusa
de parecerse más a una trampa, a un virus, puesto que genera pesadas
cargas para los futuros desarrolladores de software
[92]
. En concreto,
las condiciones de la licencia habilitan prácticamente para todas
las acciones que supuestamente el copyright protege y obliga
a que las versiones y utilizaciones de los programas desarrollados
tengan también el código fuente abierto para poder distribuirse bajo
condiciones idénticas a las cuales el tomador del software lo recibió.
Permite ejecutar, copiar, modificar y distribuir
copias modificadas del software. La GPL especifica que cualquiera
puede copiar el software, dejando la licencia asociada a la copia
y el código del software siempre queda abierto transformándose estas
en libertades inalienables (Stallman; 2002). Pero, ¿qué quiero indicar con estas reflexiones sobre la
GLP? Lejos de discutir las bondades o perjuicios de una licencia en
particular, quiero mostrar como a través de un dispositivo complejo
-compuesto por partes jurídicas, usos y normas sociales de una cultura
concreta, bajo condiciones específicas de mercado y, sobre todo, conteniendo
partes de código de programación de las aplicaciones-, se conformó
un dispositivo regulativo que todavía tiene fundamentales consecuencias
para la cultura, economía y ecología informacional de nuestras sociedades.
Salvo por la presencia –ineludible y muchas veces ficcional- de una
normativa de orden público de base, o sea, aquella que soporta el
concepto y funcionamiento de una licencia dentro del marco jurídico
general, todos lo demás componentes de este dispositivo provienen
de la esfera privada. Incluso, técnicamente hablando, la misma solución
legal en forma de licencia proviene también de las estrategias del
ámbito privado. Sin dudas, este no es un detalle menor. Esta
solución, proveniente de la esfera privada no comercial
[93]
, dio una salida transitoria a la problemática
de la clausura de partes esenciales de la capa lógica de Internet.
Quiero resaltar el proceso silencioso a través del cual –paulatinamente-
una codificación compuesta de intereses privados no comerciales, fue transformándose
en una alternativa para preservar el trabajo cooperativo común. Esta
codificación heterogénea partió del ámbito privado y se deslizó hacia
el ámbito público, no como posibilidad, sino como alternativa real,
regulando a través del código y respaldándose en otros reguladores
clásicos. ¿Cómo es que una
instancia privada, no comercial, se transforma en una alternativa
que penetra y defiende el espacio público-común? Las regulaciones
públicas clásicas, como la sanción de leyes, pasan por momentos de
mayor o menor permeabilidad a la voluntades e intereses privados.
Pero, cuando las regulaciones públicas clásicas son inviables
[94]
, cuando las corporaciones del software,
del entretenimiento y, en suma, cuando las regulaciones que resguardan
el interés público están viciadas por intereses particulares comerciales,
las codificaciones que parten del espíritu libre de los intereses
privados, del fuero de los intereses indeterminados de todos y cada
uno, se transforman en una vía de escape alternativa a los procesos
de cierre y caída de la representación de las democracias occidentales. A pesar
de su valor, creo importante resaltar que la experiencia única y aislada
de una licencia poco puede hacer frente al proceso de privatización
en la producción tanto de leyes, como de códigos digitales. El proceso
de privatización legal puede transformarse rápidamente en un proceso
de privatización de las codificaciones, arquitecturas y finalmente,
de las normas sociales dentro de la lógica del mercado asfixiante.
Como he analizado, las tecnologías de control y los códigos privados
pueden ser más efectivos en la regulación de la red que las leyes
privatizadas. El peor de los escenarios posibles es aquel donde los
códigos del espacio de las aplicaciones son cerrados, elaborados por
corporaciones, bajo intereses exclusivamente comerciales, y con el
respaldo de leyes privatizadas de los estados nación. ¿Que ocurre
entonces con los intereses comunes, con el orden público común, cuando
los códigos se producen exclusivamente bajo el signo de la protección
de los intereses económicos de las corporaciones comerciales que diseñan
el espacio Internet? ¿Serán lo intereses de las grande corporaciones
a nivel global el nuevo orden público económico en la Red? Afortunadamente,
las arquitecturas descentradas y soportadas por pares, habilitan a
ciudadanos y redes ciudadanas -celosas de los
derechos, garantías y libertades conquistados a través de luchas históricas-
a que puedan todavía ser una de las instancias decisivas en el campo
de las regulaciones. A diferencia de las viciadas y no siempre eficientes
codificaciones públicas legales, las nuevas codificaciones provenientes
de las decisiones privadas de usuarios-ciudadanos-productores finales-
tienen un carácter abierto a la optimización a través de su uso
[95]
. Acertadamente, James Boyle (2003) afirma que la GPL no resolvió las problemáticas de fondo
en relación a algunas libertades y a la propiedad intelectual. A decir
verdad, la misma licencia no tenía obligación de hacerlo. Sin embargo,
es evidente que tanto la GPL como el movimiento
de software libre, contribuyeron a resolver el problema de los incentivos
individuales y comunitarios frente a la producción de software. A
gran escala, tal vez sea cierto que la solución aplicada al software
no es la mas conveniente para la totalidad de obras intelectuales,
pero sin dudas dejó abierta la posibilidad de seguir pensando y optimizando
nuevas soluciones regulativas basadas en un nuevo arte regulativo.
Sin dudas, existe en la actualidad gran necesidad de crear regulaciones
que permitan acercar intereses públicos-comunes con los intereses
privados, pero por sobre todas las cosas, hace falta diseñar regulaciones
abiertas que permitan la retroalimentación y la optimización dinámica
a través de los usos finales de las redes que las soportan. Frente
al nuevo arte regulativo emergente, las regulaciones abiertas son
un gran desafío histórico al mismo tiempo que una gran necesidad.
B)
Las nuevas luchas por la propiedad (¿intelectual?)
Las
problemáticas de la capa de contenidos requieren de varios pasos aclaratorios
para ser analizados. Si bien el concepto de propiedad intelectual
es relativamente nuevo, su utilización a nivel mundial data de varios
siglos. El copyright, los derechos de autor, sus derechos conexos,
y las patentes, entre otros, han sido tratados siempre como una especie
de propiedad imaginaria, ficcional, aunque, su regulación no ha pasado
nunca la barrera de la simple analogía con el concepto de propiedad
sobre las cosas materiales. El concepto de propiedad funciona como
una forma posible de ordenación, control y administración de cierto
tipo de capitales, bienes o recursos materiales. La propiedad, como
institución política, es una parte esencial del modo de producción
y circulación de bienes materiales. Desafortunadamente, la ordenación
de bienes inmateriales o intangibles comienzan, con poca inocencia,
a ser tratados como un tipo de bienes sujetos al derecho de propiedad
o dominio. Todo indica que será extremadamente difícil reformular
y cambiar esta tendencia hacia la propiedad intelectual, puesto que
estos derechos se ubican en las entrañas de la producción de riqueza
del sistema capitalista en momentos en que este sistema concentra
no solo la propiedad sobre bienes materiales, sino que pretende hacer
extensiva su concentración y forma organizativa hacia bienes intangibles
comunes. En este sentido, la solidificación de un nuevo modo de producción
informacional a nivel global dependerá necesariamente de la regulación
de las “propiedades intelectuales”. Estas discusiones sobre propiedad
de los bienes intelectuales, sin lugar a dudas, tienen las más importantes
consecuencias para la ecología informacional de la capa de contenidos
de nuestras sociedades. Si bien
técnicamente (aunque también históricamente) los bienes inmateriales
han estado fuera del régimen de la propiedad, actualmente existe una
tendencia irrefrenable para traducirlos hacia el concepto de propiedad
a secas, o sea, de sujetarlos a un régimen de dominio puro. Esta tendencia
esta avalada, por un lado, por la producción diferencial de bienes
y la circulación de capitales a nivel global, y por el otro, por la
posibilidad cierta de control efectivo sobre estos bienes que hoy
posibilitan las tecnologías de control en el ciberespacio. Esta tendencia
indica la pretensión de regular la producción-protección de bienes
inmateriales como un tipo de propiedad encastrada a los bienes materiales.
La clásica interpretación del concepto de propiedad como una metáfora,
cuando nos estamos refiriendo a los derechos de autor, está rápidamente
desapareciendo en un triste y pesado sistema regulativo a nivel global.
En caso de solidificarse esta tendencia, esta in-diferenciación entre
los tipos de bienes activaría la ampliación de la característica más
importante del dominio sobre los bienes intangibles de la mente: a
saber, la exclusividad frente a terceros, o sea la posibilidad de
excluir perfectamente a otros de los usos sobre bienes intelectuales
o inmateriales. En este sentido, dos de las tres capas analizadas
en la estructuración de Internet -la capa lógica, y fundamentalmente,
la capa de contenidos- están comprometidas seriamente en estas tensiones
a nivel global. Los
derechos de propiedad intelectual, y específicamente los derechos
de autor han estado siempre en tensión con la tecnología disponible
para la producción, copia y representación de las diversas obras.
Esta es una tensión dinámica, aunque no exclusiva del campo de la
protección de los derechos de autor. La tensión se establece entre
los diferentes tipos de tecnologías
[96]
y el tipo de protección
buscada. En general, debido a la complejidad, infoxicación y a los
grandes intereses en juego, se desconocen las implicancias que los
diferentes tipos de regulación sobre los derechos de autor puede acarrear
para el futuro cultural de nuestros colectivos. Las leyes siempre
han tratado de proteger a los autores, los editores y las industrias
que sobre ellos se levantaban, pero el gradual avance tecnológico
permitió, una y otra vez, que esta protección caiga o vaya paulatinamente
resquebrajándose. En este sentido, la tensión entre las tecnologías
y la protección de derechos de autor está atravesada por el costo
de las reproducciones de las obras. Razones tecnológicas en cuanto
a la posibilidad y razones económicas en cuanto rentabilidad configuran
también la relación entre los sistemas de producción-protección. Estos
puntos no pueden dejarse de lado al momento de repensar el sistema
de protección-promoción de las obras culturales. Esta
tensión dinámica entre los alcances diferenciales de las tecnologías
y la regulación de la producción-protección de obras culturales generó
espacios para el intercambio, el desarrollo y la innovación. El control
limitado sobre las obras, copias y formatos, puede generar ciertos
espacios de libertad, diversidad, y la emergencia de algunos nuevos
derechos. Esto fue, aparentemente, lo que ocurrió con la imprenta:
las diferentes regulaciones para el caso de la tecnología imprenta,
comenta Stallman (2001), recayeron sobre la figura del editor dado
que ellos eran los que poseían las máquinas. Sin embargo, el control
incompleto y limitado sobre la impresión habilitó determinados usos
justos, necesarios y legítimos sobre las obras. Un control limitado
de algunas instancias que por diferentes razones, tecnológicas o políticas,
escapan a la ubicuidad del control es lo que termina favoreciendo
el surgimiento de prácticas, normas sociales y derechos por los cuales
la capacidad adaptable de lo social se cuela y genera ámbitos de innovación
y libertad. Estos
espacios irregulares, dinámicos y productivos han sido muchas veces
decididos políticamente, aunque la mayoría de las veces han formado
parte de las innumerables consecuencias imprevistas del desarrollo
tecnológico
[97]
. Actualmente, existe una fuerte tensión por la
re-definición de conceptos que fueron fundamentales para la construcción
del mundo moderno
[98]
. La diferencia entre aquello que pertenecía a los
bienes materiales sujeto a la propiedad y aquello que pertenecía a
los bienes intangibles dentro de un tipo diferente y especial de protección
personal-patrimonial se encuentra cada vez más borrosa. La exclusividad
parece ser cada vez más atributo de la protección de las obras culturales,
cuando claramente este atributo caracterizaba preferentemente a la
propiedad de las cosas materiales. Las nuevas tecnologías digitales
de información y comunicación están borrando rápidamente los límites
clásicos de la propiedad intelectual, sin embargo, todavía existen razones practicas,
históricas, económicas y filosófico-epistemológicas por las que conviene
mantener la separación entre estos bienes. La propiedad da derecho exclusivo en relación
al dominio, uso y explotación sobre una cosa material. Cuando compartimos
bienes inmuebles o muebles automáticamente vemos reducida nuestro
dominio sobre ellos. Las leyes protegen
la propiedad mobiliaria e inmobiliaria con el fin de brindar al propietario
seguridad frente a terceros al mismo momento que pretende generar
incentivos para la explotación de los bienes materiales, puesto que
nos encontramos frente a bienes escasos, agotables y consumibles.
Por el contrario, los bienes intangibles e inmateriales se consideran
históricamente una propiedad sui generis, puesto que se los ha considerado
inagotables, inapropiables y no consumibles, bienes pertenecientes
a una economía que desde hace siglos viene creciendo sin prisa pero
sin pausa. Los
bienes intangibles o inmateriales de la economía de las ideas siempre
se han considerado una regulación cercana, pero esencialmente diferente
que la de la regulación de las cosas materiales. Aunque alguien se
apropie debida o indebidamente de ideas de otra persona, la idea en
si misma no se ve afectada porque otros la sepan, no cambia ni disminuye
su calidad. Quien la desarrolló o la tenía originariamente continua
teniéndola sin ninguna merma en su calidad. Por lo tanto, las ideas
nunca tuvieron obligación de ser excluyentes en el mismo sentido en
que si lo fue y todavía lo es la propiedad que regula los bienes materiales.
Esta misma diferenciación, incluso, puede aplicarse a muchas de las
obras sobre la cual las ideas son expresadas. Esto es lo que ocurre
actualmente en la era digital. Cometeríamos un grave y grosero error
si pretendiéramos pensar el nuevo contexto digital a través de los
viejos principios que gobernaron la producción y circulación de las
obras culturales en el pasado. En modo alguno esto significa
que el estado no debe proveer alguna protección / regulación a los bienes
intangibles del intelecto. A decir verdad, más que proteger estos
bienes, el estado esta obligado a una tarea bastante diferente y muy
necesaria. El estado esta obligado a establecer incentivos (políticos,
sociales y económicos) que favorezcan la producción y circulación
de las ideas para el desarrollo socio-cultural. La forma regulativa
protectora-excluyente de los bienes intangibles es solo una de las
formas en que (supuestamente) se incentiva a los creativos a que produzcan
más obras que, directa e indirectamente, favorezcan el desarrollo
socio-cultural de nuestras sociedades. Sin embargo, esta forma regulativa
no es la única forma de establecer incentivos en la producción de
bienes por esencia inagotables. Aquí encontramos uno los primeros
y más importantes errores al tratar la temática de los derechos de
autor a nivel regulativo. Es importante comprender que el fundamento
de la existencia de los derechos de autor y del copyright es
lograr concentrar la mayor cantidad de personas y recursos para dedicarlos
a trabajos que no son desarrollados por la lógica del mercado comercial.
Los derechos de autor y el copyright están dirigidos, más que
a la protección los autores concretos, a favorecer e incentivar al
conjunto de los usuarios finales donde se encuentran los nuevos creadores.
Una protección excesiva de los creadores-artistas-autores y de sus
obras ya creadas, genera una peligrosa merma en el material disponible
para producir nuevas obras. La equiparación
de los dos tipos de bienes, materiales e inmateriales, puede traer
resultados muy negativos para la ecología de los bienes inmateriales
dentro de la capa de contenidos de Internet. La diferencia entre los
dos tipos de bienes es fundamental cuando nos planteamos que tipo
de control y que regulación queremos activar para incentivar su producción.
Como bien afirma Lessig (2001), los bienes intangibles inmateriales,
más que un control perfecto –como tiene la propiedad sobre bienes
materiales-, requieren generar los incentivos suficientes para su
producción. Esta diferencia en relación al control es esencial para
evaluar las diferentes regulaciones que uno u otro régimen puede provocar
en un mundo de ideas interconectadas. Las ideas que hasta ahora, según
Lessig (1999-A), no eran ni excluyentes, ni disminuibles en función
de sus poseedores, pueden cambiar su naturaleza y transformase en
un sistema de protección similar al de la propiedad material. Todo
indica que esa es la tendencia a nivel mundial. Los plazos de protección
de los derechos de autor han sido extendidos en el mismo momento en
que los efectos prácticos de las regulaciones pasaron a brindar una
cobertura instantánea y a-formal. A pesar de la naturaleza diferencial,
la tendencia mundial erróneamente busca darle a los titulares y autores
mayor posibilidad de exclusividad sobre la protección sobre sus obras
[99]
. En este sentido, para Siva Vaidhyanathan (2001)
el copyright en el siglo XX a sufrido un período de extensión
y desnaturalización. Paulatinamente, el copyright y los derechos
de autor fueron perdiendo su verdadero sentido, su misión, su razón
de ser. Han dejado hace tiempo de incentivar la creatividad, la ciencia
y la democracia a través de un sistema liviano, y se han transformado
en una pesada carga sobre las formas de creación de riqueza de las
comunidades. Los actuales derechos de autor solo protegen obras ya
creadas y de esta forma limitan las obras por crearse. Específicamente,
según Siva Vaidhyanathan (2001), en la década del 90 la expansión
de la protección de los derechos de autor olvidó el interés público
general acompañando el proceso de erosión del espacio público. A pesar de lo que comúnmente
se cree, los derechos de “propiedad intelectual” lejos de estar en
una etapa de crisis están en una etapa de cambios profundos que pueden
volver su protección un sistema asfixiante. La protección de la propiedad
intelectual, indica Lessig (2001), esta hoy mucho más cerca de gozar
una protección más amplia que en épocas anteriores. Por un lado, persisten
los (in)eficaces mitos en relación a los derechos de autor y las presiones
abusivas de grandes corporaciones que se resisten a cambiar sus modelos
de negocios en relación al cambio de paradigma de comunicación digital
distribuida. Por el otro, el mayor empuje para el sostenimiento de
los derechos de autor esta dado por el desarrollo de tecnologías de
control. En un ciber-espacio donde proliferan las tecnologías
y dispositivos de control y donde el código puede regular con mucha
mayor efectividad que la ley, es dable excluir a otros incluso de
algo tan intangible como los bienes inmateriales
[100]
. Cuando la relación entre la tecnología, las artes, la producción
cultural y la protección de los derechos de autor comienza a volverse
confusa comienzan también a des-balancearse derechos hasta entonces
fundamentales para la circulación de la cultura socio-política. Aquí
la presencia de los diferentes reguladores es notoria e indica perfectamente
cuales son las diferencias en la utilización de diferentes reguladores
en el campo de las regulaciones. Como he desarrollado en el capítulo
1, cuando la ley regula una determinada situación deja espacios aprovechables
para nuevos y singulares usos. Pero, ¿qué sucede cuando es el código
y su irrefrenable tendencia al control (perfecto) el que regula la
producción y circulación de los bienes intangibles? Lessig (1999-A)
afirma que cuando la propiedad intelectual (en sentido genérico) está
protegida por el código no hay nada que obligue a mantener el mismo
equilibrio que mantenían las prácticas alrededor de la ley en el acceso
a los bienes culturales. El balance entre aquello que era posible
hacer, usar, copiar y aquello que era controlable cambia radicalmente
con cada uno de los reguladores que podamos utilizar. Dice Lessig
(1999) que nada obliga al propietario de los derechos de autor a conceder
el derecho de uso justo y legítimo de su obra a los terceros (fair
use, para la tradición Norteamericana). En momentos en que aumentan la producción
de tecnologías de control, de códigos por parte de la empresas y corporaciones
comerciales, en
momentos en que aumentan los plazos y las modalidades de protección
legal y la privatización de leyes a favor de intereses particulares
comerciales se vuelve alarmante, el control asfixiante que las arquitecturas
pueden producir conforma uno de los mayores peligros a los que se
enfrenta la capa de contenidos de Internet. El cercamiento de la capa de contenidos en Internet y la confusa, errónea
y tendenciosa regulación legal de los derechos de autor, intentado
la asimilación a la propiedad a nivel mundial, están generando según
Boyle (2003) la segunda tragedia de los comunes. La misma esta caracterizada
por una clausura (enclosure)
[101]
de la producción-distribución compartida
de los contenidos en Internet. James Boyle (2003), define la tragedia
como el cerramiento en las capas media y alta de Internet, o sea,
las capas lógica y de contenido. Por un lado, la capa lógica enfrenta
al modelo propietario en la producción de software y por el otro,
la capa de contenidos, enfrenta la privatización y sobre-protección
de los contenidos que circulan en la red. Nos encontramos en medio
del aparentemente irreversible segundo movimiento de clausura (enclosure)
de los bienes comunes intangibles de la mente. Este es el punto de inflexión donde de un sistema de propiedad
sui generis como el de la propiedad intelectual, se transforma en
un sistema de protección de propiedad-dominio para favorecer un dominio
absoluto e irreversible sobre bienes intangibles comunes. El peligro
emerge una y otra vez al observar
la extraña articulación entre el derecho, la política y el desarrollo
de la tecnología. Esta articulación está generando un tipo de regulación
tendiente a la irreversibilidad. Las nuevas formas de protección,
a través de tecnologías de control, regulan en el mismo dominio que
las leyes sobre derechos de autor pero, a diferencia de estas, no
garantizan la existencia de espacios libres, ni de protección del
uso público común de nuestro acervo cultural. Es allí donde el estado,
incapaz de regular frente a los intereses de las grandes corporaciones
cede parte de sus funciones a manos privadas que pueden y quieren
regular el código. ¿Cómo afectará a la democracia el creciente
control privatizado? La diversidad cultural es esencial para la buena
constitución de sociedades democráticas. Algunas arquitecturas de control que rápidamente se van desarrollando,
el aumento de la selección informacional (Whitaker; 1999), la generación
de micro-entornos o burbujas informacionales y la configuración de
micro-mundos (Shapiro; 1999, Sunstein; 2003), están planteando divisiones
tajantes entre sociedades abiertas y sociedades de clausura, entre
mundos felices y mundos salvajemente reales. Ciertamente, no es conveniente
para nuestras sociedades que la
propiedad intelectual se convierta en una propiedad absoluta. Esta
tendencia configuraría la apropiación indebida de un capital común,
que pertenece desde hace siglos a la evolución humana. En otras palabras,
es necesario pensar regulaciones que primero tengan en cuenta una
protección común que favorezca los derechos ciudadanos básicos en
momentos de un segundo enclosure en las capas lógicas y de
contenidos de Internet. A raíz de estas tensiones, y a pesar de los
pocos años que tienen estas problemáticas, es muy posible que nos
encontremos frente a un nuevo movimiento social global en plena gestación,
que se aboca a la protección de los contenidos libre y diversos, a
la protección de una Internet que es común, que es comunitaria a nivel
global. Desafortunadamente, no son muchos aún los laboratorio que
están creando, modificando, y protegiendo la capa de contenidos del
nuevo entorno digital. Sin embargo, a pesar de la escasez, he encontrado
un caso que puede servir de ejemplo para el análisis de las principales
tendencias que he descrito en este trabajo.
C)
Un laboratorio llamado Creative Commons
He dedicado partes del capítulo primero a mostrar como los laboratorios
producen asociaciones y delegaciones que permiten el control a distancia
y a través del tiempo. Estos laboratorios conforman una instancia
política que ha sido el principal sostén en el desarrollo de Internet
y configuran el espacio de trabajo de investigadores, artistas y,
en modo creciente, de las nuevas formas emergentes de comunidades
y corporaciones sin fines de lucro que todavía luchan por la defensa
sus valores políticos. Como bien muestra Latour (1997) a una forma
de producción de hechos naturalizados, a una usina de conocimiento,
a una construcción sólida mediada tecnológicamente en el diseño de
un entorno, no caben dudas que debe contraponérsele otro laboratorio
como respuesta política. En este sentido, las luchas por la regulación
de la capa de contenido de Internet esta dada por el diseño de un
entorno que enlaza bienes intangibles de la mente y que paulatinamente
va creando una inteligencia conectiva a nivel global. El laboratorio
Creative Commons es parte de estas luchas político regulativas
por el diseño del entorno digital que gobierna la ecología de los
bienes intangibles de la mente. Creative
Commons
[102]
(CC) es uno de
los proyectos mas ambiciosos e innovadores en relación al destino
de los espacios comunes, el dominio público y los derechos de autor
en la era de las redes electrónicas. Creative Commons es una
corporación sin fines de lucro fundada en 2001 y lanzada en diciembre
de 2002, con el apoyo del ‘Centro para el Dominio Público’ (Center
for the Public Domain) de los Estados Unidos. CC es uno de los
laboratorios montados para diseñar y gobernar el entorno participativo
en la era de las redes electrónicas y su objetivo principal, aunque
no este enunciado en estos términos, es convertirse en una instancia
regulativa neo-gubernamental a nivel mundial. En este sentido, podemos
definirlo como un contra-laboratorio que se enfrenta a los procesos
e instituciones clásicas que generan las regulaciones que respaldan
el gobierno de Internet. El laboratorio CC ejerce la política de una
forma silenciosa y alternativa, intentando superar las escalas entre
lo micro del diseño y su proyección del entorno socio-técnico, y el
nivel macro donde se produce la utilización de la producción a nivel
global. La estrategia de CC de tan inocente y básica, se vuelve invisible
justo allí donde encuentra su fortaleza. Como he analizado en los
capítulos anteriores, las estrategias silenciosas son las que logran
construir un orden legitimo a través de la costumbre de lo que es. Creative
Commons está sustentado en el ethos de la interactividad creativa y funciona como
un espacio abierto que busca constantemente formas alternativas para
promover que los autores y creadores compartan su creación individual
o colectiva, con el próximo, con el vecino y, de esta forma, con la
comunidad. Existe en CC una fuerte y sólida confianza en la interactividad
creativa, en el producto de lo público, en las fuentes abiertas y
en las bases comunitarias para la construcción de cualquier sistema
o sociedad. Creative Commons es claramente un proyecto inspirado
en la Licencia Pública General (GPL) del proyecto GNU conducido por
Richard Stallman. CC esta basada sobre conceptos sólidos: dominio
público, apertura de contenidos, espacios comunes, conservación del
capital intelectual de las comunidades, libertad en cabeza de los
usuarios finales. CC emergió también como un ‘hack’ al sistema
de protección abusiva de los derechos de autor. Aunque diferente del
‘hack’ histórico de la GPL-GNU, las licencias del proyecto
Creative Commons no son diseñadas para software
[103]
, sino que son –preferentemente- diseñadas para
otra clase de obras culturales. A saber, para sitios web, ilustraciones,
videos, música, fotografías, literatura, software didáctico, etc.
Esta corporación busca desarrollar, en principio, una aplicación en
la Web para ayudar a los creativos, o bien, a poner sus obras directamente
en el dominio público, o bien, a que puedan licenciarlas bajo términos
más generosos y libres que los del histórico copyright anglo-americano.
La idea es quebrar-aprovechar-mejorar los ya viejos y toscos términos
del copyright, para ofrecer alternativas en la creación y difusión
de obras. CC estimula
a los creadores a continuar creando obras y espacios comunes sobre
los que otros creadores y desarrolladores ya están produciendo. Se
los estimula para continuar creando sin las limitaciones que el enclosure
de la capa de contenidos esta teniendo en manos de las legislaciones
y de las codificaciones de las corporaciones que median la producción
cultural. La corporación CC pretende aumentar la cantidad y la calidad
de los trabajos en la red, pero también transformar el licenciamiento
–privado- de estos trabajos creativos en una tarea sencilla para el
público general. A pesar de que Creative Commons trabaja con
licencias y protección de obras, es dable aclarar que no es una firma
legal y tampoco provee servicios legales. Procura ayudar a los interesados
a intercambiar obras y trabajos de una manera sencilla, dinámica y
segura. La idea de Creative Commons es contribuir a la creación
de un espacio que promueva, facilite y garantice el intercambio colectivo
de obras y trabajos de artistas, cientistas y diferentes desarrolladores,
como forma de proteger una cultura diversa, de libre intercambio y
que defienda la libertad de expresión. Desean, en suma, promover el
intercambio de obras producidas individual o colectivamente, para
que estas circulen como una producción común y generen los incentivos
para aumentar las obras disponibles en el dominio público o en el
dominio común. El objetivo de los constructores de Creative Commons es
habilitar a los usuarios-creativos a usar aplicaciones de búsqueda
online para encontrar, por ejemplo, fotografías de libre circulación,
videos, música, etc, bajo la sola condición que el creador original
esté debidamente acreditado, o sea bajo la condición que se reconozca
su autoría. Por tanto, CC no solo quiere aumentar el material crudo
de fuente online, sino que también aspira a hacer que ese material
sea libre y sencillo de intercambiar a través de varios sitios Web
de contenidos comunes (como pueden ser Common Content o Internet
Archive)
[104]
y de un metadata (metadatos) que clasifica
y ordena dichos contenidos. Este sistema describe e identifica, mediante
un motor de búsqueda, las licencias de cada trabajo creativo, permitiendo
asociar en forma automática cada obra creativa con el dominio público,
o bien con el tipo de licencia seleccionada entre una variedad de
opciones. Para la construcción del espacio común de intercambio, los diseñadores
de Creative Commons establecieron una estructura de licencias
compuestas de tres niveles. El primer nivel, esta basado en la confianza
que los diseñadores de Creative Commons han depositado en un
tipo de intercambio de materiales sencillo y directo que permite a
los usuarios finales gobernar los usos habilitando o deshabilitando
permisos a través de las licencias. Este nivel inicial esta compuesto
por un acuerdo o título común (Common Deed), procesable y legible
fácilmente por los actores-humanos ubicados como usuarios finales.
El acuerdo común esta escrito en un lenguaje plano y simple, acompañado
con íconos y explicaciones multimediales. El segundo nivel, ya mas
complejo y técnico, es el nivel perteneciente al código legal (Legal
Code), donde encontramos las licencias legales propiamente dichas,
las que son procesables y legible por actores-humanos capacitados
en derecho, o sea abogados. En este nivel aparecen los derechos, permisos
de uso y obligaciones sobre la obra, los que se hallan expresados
técnicamente en el código legal de las licencias. En el tercer y último
nivel, encontramos la instancia del código digital (Digital Code)
que permite la creación de un metadata. Este código solo es
procesable por actantes-no-humanos, o sea por máquinas que procesan
datos en la red. Creado por técnicos en código de programación, este
tercer nivel es fundamental tanto para los buscadores como para otras
aplicaciones que intenten dar con las obras y sus condiciones de uso. ¿Cómo es
que apareció la necesidad de crear un laboratorio como CC? Como he
analizado en el apartado anterior, las diferentes reformas de la legislación
en los Estados Unidos de Norteamérica, aunque la tendencia esta dándose
a nivel mundial, ha dado como resultado una sujeción a la ley de copyright
“por defecto”, o sea que, aunque no se diga nada al respecto, las
obras desde su nacimiento se encuentran protegidas por la legislación
sin requerirse ningún tipo de formas o registración al respecto. Este
mecanismo, como bien aclara Lessig (2001), ha restado la posibilidad
a los autores-creadores para que decidan sobre el futuro de su obra
y ha contribuido a cerrar aún más la capa de contenidos de la red.
En este sentido, el argumento de CC es que la lectura en tres niveles que posibilitan sus licencias,
pero fundamentalmente gracias al metadata y al código legal de las
licencias, eliminará las restricciones actuales en materia del copyright
y promoverá la creatividad mediante un fluido intercambio de obras
bajo arquitecturas par a par. De esta forma, las obras podrán ser
copiadas, distribuidas o experimentadas bajo condiciones precisas
usando este espacio de intercambio como laboratorio de creación común.
Sin dudas, CC es un emergente de las arquitecturas par a par y del
libre intercambio de información que el principio E2E legó a Internet
desde la arquitectura originaria
[105]
.
D)
Some Rights Reserved (Algunos Derecho Reservados)
Una correcta regulación sobre los trabajos de artistas, inventores
y demás creativos es una de las mejores vías para incentivar la creatividad,
las artes y la ciencia. Para ello, es fundamental, por un lado, conseguir
un aumento significativo de las obras del dominio público y, por el
otro, lograr una circulación libre y abundante de obras. En momentos
en que la capa de contenidos tiende a cerrarse, lo que esta en juego
es el espacio público común como reservorio de la cultura en las diferentes
sociedades a nivel mundial. Si solo los actores comerciales están
interesados en desarrollar códigos digitales, tecnologías de control
y regulaciones clásicas (privatizadas), los intereses públicos-comunes
pueden verse seriamente afectados. Este parece ser el caso de Internet
frente a un nuevo enclosure en la capa de contenidos. Como
antes he analizado, CC pretende diseñar y desarrollar un dispositivo
por el cual, de una manera sencilla, los autores y creadores puedan
decidir si quieren o no reservarse ‘todos’, ‘algunos’ o ‘ninguno’
de los derechos que lo vinculan a su obra. Esta es una buena forma
de devolver la libertad a los verdaderos productores de obras y generar
incentivos para su creación. CC posee varios proyectos en marcha y otros incubándose. El proyecto
principal produjo las licencias privadas y gratuitas por las que se
deja en manos de los creadores, en su rol de verdaderos titulares
del ejercicio de sus derechos, parte de los derechos que lo vinculan
con su obra. Las licencias establecen las limitaciones y permisos
de uso, copia y distribución que los autores aceptan sobre sus obras.
CC desarrolló cuatro licencias combinables y graduales que morigeran
los efectos del copyright por defecto. Si la estructura del
copyright se basa en la genérica frase ‘All Rights Reserved’
(‘Todos los Derechos Reservados’), CC quiere ayudar a los titulares
de este copyright a enviar un mensaje diferente con mayor especificidad.
Creative Commons ofrece a los creadores la posibilidad de decir
‘Some Rights Reserved’ (‘Algunos Derechos Reservados’). La
nueva narrativa es, claramente, más heterogénea, específica y libertaria
que la primera. Finalmente, la última de las narrativas es aquella
declaración que subvierte el sistema imperante por defecto en la legislación
norteamericana. CC ofrece también una importante ayuda a los creadores
que directamente prefieran dedicar su trabajo por entero a enriquecer
el dominio público. CC ayudará a que los titulares puedan decir ‘No
Rights Reserved’ (‘Sin Derechos Reservados’) orientándolos, por
defecto, al dominio público. Estas narrativas organizan un sistema de protección e intercambio
que se construye por encima del copyright. Intentan balancear
los desajustados intereses público-comunes con los intereses privados
de cada uno de los creadores. Estas licencias permiten, en parte,
desligarnos de las violentas y arbitrarias condiciones que los modelos
de negocios de los grandes intermediarios de la industria cultural
imponen. En este sentido, las licencias CC en ningún caso significan
la entrega o cesión completa de los derechos de autor. Al igual que
la licencia de GPL, solo algunos derechos y algunas obligaciones quedan
activos. Mejor dicho, las licencias significan la reserva de facultades
y el otorgamiento a los usuarios finales de algunos derechos bajo
ciertas condiciones específicas. Para todo lo que las licencias no
habilitan, los usuarios deberán solicitar permiso por escrito al licenciante.
Las diferentes licencias ayudan a encontrar las preferencias
para un mejor intercambio de las obras bajo estándares comunes. Las licencias de CC no mencionan leyes, estatutos
de ningún país en particular o contenidos de ninguna clase de cláusula
de opción legal específica
[106]
y las mismas son irrevocables y se validez universal. El menú de licencias que CC ofrece hasta el momento esta compuesto
por 4 licencias básicas combinables en 11 opciones
[107]
. A decir verdad, el numero de licencias y proyectos
esta creciendo a pasos agigantados. Las preguntas y las opciones de
respuesta al momento de la selección de licencias están ordenadas
jerárquicamente en el siguiente orden: 1) ¿Requiere usted atribución?;
Si / No; 2) ¿Permite usos comerciales de su obra?; Si / No; 3) ¿Permite
modificaciones de su obra?; Si / Si, con trabajos derivados / No.
El siguiente cuadro contiene las cuatro licencias básicas:
El cierre
de la capa de contenidos esta apoyada en un proceso complejo que evidencia
como, a nivel mundial, el plazo de protección de los derechos de autor
viene progresivamente aumentando sin razones valederas que lo justifiquen.
La verdadera batalla está librándose en contra de una tendencia a
reavivar los privilegios relativos a la propiedad intelectual que
caracterizaron mas al medioevo que a la modernidad. Como bien ha descrito
Lawrence Lessig (1999-A), el ciberespacio posee una extraña naturaleza,
o mejor dicho, es poseedor de muchas naturalezas concomitantes. Por
lo tanto, como afirma Latour, no se requiere de un análisis esencialista-naturalista
-tan común en la construcción filosófico-jurídica de la modernidad-
para tomar las decisiones de diseño y construcción del entorno digital.
Por ello, a su estrategia inicial de licencias privadas, el laboratorio
CC pretende sumar varias otras soluciones. Si las licencias de CC
intentan continuar el ‘hack’ comenzado con la GPL, los otros
proyectos de CC intentan directamente quebrar la lógica temporo-espacial
que dominó el derecho moderno y las formas clásicas de regulación
de los últimos siglos. Esta
parece ser la idea básica de los tres proyectos que se están incubando
en el laboratorio CC. El primero de los proyectos, llamado ‘Proyecto
de Conservación’ tiene por objeto la conservación de partes esenciales
del patrimonio cultural. Pretende salvar del cerramiento de la capa
lógica y de contenidos de la Internet algunas obras fundamentales
para la diversidad cultural. De la misma forma que entendemos la urgente
necesidad de preservar los patrimonios naturales a nivel mundial,
nos vemos obligados a conservar los diferentes patrimonios culturales
y la diversidad de las diferentes regiones a nivel global. Esto puede
entenderse como un nuevo ambientalismo digital que esta conformándose
como un movimiento global. Los creadores de CC entienden que hay que
conservar y promover algunas obras en el dominio público con el fin
de protegerlas de la tendencia asfixiante y excluyente donde las grandes
corporaciones pretenden volver propiedad-privada el régimen de propiedad
intelectual. Este proyecto aparece como una de las vías posibles para
desarrollar un rico repositorio de trabajos de alta calidad dentro
de una variedad de medios. El segundo
de los proyectos, llamado ‘Copyright de los Fundadores’, intenta
quebrar la lógica temporal -lineal y progresiva- del derecho moderno.
Una de las formas de recuperar el capital común, la cultura de la
libertad y la creatividad es establecer plazos de protección de obras
sujetos a una limitación temporal realista. Este proyecto permite
auto-limitar temporalmente la protección que el estado dio a los titulares
del copyright. El proyecto procura habilitar a los creadores
a dedicar, dentro de un plazo razonable, sus trabajos al dominio público.
A diferencia de la extensión y complejidad actual de la legislación
Norteamericana (70 años)
[108]
el proyecto pretende establecer el término de protección
en 14 años + 14 años (de renovación opcional). Este fue el plazo de
protección que el primer congreso de los Estados Unidos estableció
en 1790 para la protección de las obras intelectuales. CC quiere contribuir
a restablecer el balance que esos plazos establecían, para evitar
la tendencia de extender los plazos de protección de una forma abusiva
y desproporcionada. Este proyecto apunta directamente a quebrar la
temporalidad del derecho como regulador clásico. El tercero
de los proyecto apunta a quebrar la otra característica del derecho
moderno. Intenta superar la lógica y la delimitación espacial que
el derecho moderno construyó. Como he analizado en el capítulo primero,
el derecho cierra operacionalmente su funcionamiento a través de las
fronteras del estado nación. Las competencias y la soberanía aún dependen
de estos límites cada vez más borrosos. El proyecto ‘International
Commons’ (IC) es un apéndice del proyecto mayor de licencias de
CC que tiene por objeto delinear y eventualmente adoptar licencias
específicas para otros países a nivel mundial. El proyecto procura
la traducción (tanto
legal, como literal) de la parte del código legal a las legislaciones
locales, dejando intactos, tanto el acuerdo común, como el código
digital original del proyecto
[109]
. Estos tres proyectos, sumados a las licencias
de distribución conforman las ideas iniciales de un proyecto ambicioso
como es CC. Aunque, a decir verdad, los proyectos se sustentan en
la ultima de las partes a analizar. La vedette actual
del campo de las regulaciones, tal como fuimos analizando a lo largo
de este trabajo, es el metadata de CC y la codificación que gobernará
la arquitectura que soporta el intercambio de obras.
E) Regulando a través del
código
Hace más de una década que los derechos sobre bienes
intangibles están siendo gobernados por las tecnologías de control
y las mediaciones técnico regulativas que fuimos describiendo en el
presente trabajo. Ha quedado claro que las decisiones que debemos
tomar frente a las arquitecturas y a las diferentes formas de codificación
de nuestro espacio común, son esenciales para el ambientalismo digital,
la diversidad cultural y la democracia en nuestras sociedades. Los
dispositivos que permiten tomar decisiones y llevar adelante programas
y metas, no solo a los actores-humanos, sino fundamentalmente a los
actantes-no-humanos, son un hecho muy concreto con el advenimiento
de las tecnologías digitales que componen el ciberespacio. La arquitectura
que va a sostener la comunicación entre actores-humanos, máquinas,
híbridos, computadoras, o directamente, redes de actantes-no-humanos,
según las diferentes gradaciones de control que habiliten, determinarán
la ecología de la capa lógica y, particularmente, de la capa de contenidos
en el ciberespacio. El modelo de licencias
de CC, como un típico caso de arte regulativo, articula e incluye
tres niveles diferentes. Dos de ellos ya los he analizado en los anteriores
apartados y, por tanto, en el presente apartado me aboco a describir
el tercer y ultimo nivel, compuesto por el metadata y el código digital
legible por actantes-no-humanos. Al momento de elegir una licencia dentro de CC, según preferencias,
necesidades y conveniencias, estamos también llevándonos una etiqueta
que forma parte de un sistema complejo de tratamiento de documentos
que propone CC para ayudar en la búsqueda y difusión de las obras.
Al momento de elegir una licencia CC, además del acuerdo común y de
las licencias jurídicas (o código legal, bajo el cual establecemos
nuestras condiciones de uso y distribución), el sitio nos provee de
un código digital. Esta codificación por sus alcances promueve la
utilización de un metadata que sirve para la distribución y búsqueda
de contenidos. Un metadata es una forma de clasificar y distribuir
información nacida principalmente de la utilización de aplicaciones
P2P. El metadata ofrece, fundamentalmente, la posibilidad de utilizar
un motor de búsqueda de licenciamientos bajo rubros preestablecidos:
autor, título, tamaño, formato, lenguaje, licencia. El concepto de
metadata esta implicando que existe información trabajando o funcionando
sobre otra información
[110]
. En este sentido, el tercer nivel de la codificación
de las licencias de CC se conoce y sintetiza bajo concepto amplio
de web semántica. Cuando se selecciona una licencia para una obra, o bien cuando
ofrecemos nuestro trabajo al dominio público, según las opciones,
el sitio de CC ofrece una etiqueta de HTML
[111]
para que sea incorporada en la página web donde
se alojará el material licenciado. La clave para comprender el nivel
de la codificación digital está en que este procedimiento también
nos da un RDF
[112]
para que el metadata pueda funcionar correctamente.
El RDF es un sistema de codificación de datos sobre datos que se usa
para proyectos en los que se quiera arribar a la construcción de una
web semántica. La web semántica (WS) puede entenderse como unos de
los más ambiciosos proyectos colaborativos que ya Tim Berners Lee
(1999) se planteó al desarrollar el World Wide Web
[113]
. Para las búsquedas en la web se utilizan diferentes
identificadores que la WS procura obtener y relacionar de una forma
aún más inteligente a como se venía haciendo hasta el momento. La
WS es una representación de datos dentro del World Wide Web
que busca la perfecta y no-ambigua identificación de contenidos para
que los actores-humanos y los actantes-no-humanos puedan trabajar
cooperativamente de una forma precisa. La WS se basa en los RDF que integran una variedad de aplicaciones
que usan XML
[114]
para funciones de sintaxis y URI
[115]
para funciones de designación. La estructura básica
del RDF es bastante simple y esta compuesta de tres partes: a) un
sujeto: algo a identificar según su URL
[116]
; b) el predicado: el creador de la obra o el título
de la misma, también identificables por una URL; c) el objeto: el
valor asignado a este tipo de metadata. Estos tres estamentos juntos
conforman el RDF, los que son expresados en un lenguaje llamado RDF/XML.
Por tanto, la estructuración de los archivos de metadatos de CC posee
dos partes principales: a) una descripción de la obra y; b) una descripción
de la licencia que gobernará la parte jurídica de la misma. Esta es
la información relevante para la codificación y funcionamiento del
sistema. Ahora bien, el metadata de CC puede estar inserto dentro
de varios formatos, entre los cuales se encuentran el HTML, el RSS
[117]
, el Estándar para compresión de Audio Digital,
MP3 o bien el SMIL
[118]
. También encontramos proyectos que intentan etiquetar
contenidos que no están solo en la Web. En este sentido, existen proyectos
para alcanzar rápidamente nuevos formatos: video, música, imágenes. Esta es otra de las razones por la que Creative Commons
esta buscando alternativas de promoción, aliento de intercambio de
obras y reutilización de materiales creativos a nivel mundial. Sin
dudas, la web semántica funcionará mejor cuando una suficiente cantidad
de material de metadatos, legible por máquinas, este disponible en
la web y los desarrolladores puedan crear y mejorar las herramientas
de búsqueda e identificación. De esta forma, el RDF dará la posibilidad
de generar mejores y más potentes motores de búsqueda alentando a
los creativos a intercambiar sus trabajos bajo licencias abiertas.
Estos lenguajes más que legibles por actores-humanos, son (de)codificables
y procesables por actantes-no-humanos, aunque todavía su código fuente
es programable en parte esenciales por actores-humanos. Como instancias
de identificación éstas son también instancias de control a través
de las cuales se desarrollan tecnologías de control. En este sentido,
el código que regula esta arquitectura abierta, transparente y flexible
de intercambio es una instancia de gobierno compuesta por la convergencia
de los diferentes reguladores analizados.
F)
Codificaciones privadas y codificaciones públicas
La pregunta final que debemos desentrañar es como
esta estrategia surgida del laboratorio de una organización-neo-gubernamental
puede comenzar a conquistar silenciosamente el campo de las regulaciones.
La respuesta es evidente, aunque un tanto incierta por ser una respuesta
de final abierto. Nadie sabe si efectivamente el laboratorio CC será
efectivo para regular los derechos de autor a nivel global, pues esto
será decidido por los usuarios finales que hagan uso y aprovechen
las licencias. A un año y algunos meses de su lanzamiento, CC tenía
solicitadas más de un 1.400.000 licencias. Lo cierto es que el laboratorio
CC esta abierto para continuar este camino político alternativo que
lo enfrenta directamente a la estructuración del campo de las regulaciones
clásico. Al igual que fue decisiva la apertura y transparencia de
la arquitectura originaria de Internet, la apertura y transparencia
que hoy posee el proyecto CC será decisiva para su futuro. El laboratorio
CC ha logrado dar el primer paso en el diseño y codificación de un
entono, pero resta la utilización que los usuarios hagan de este espacio
y la capacidad que tenga CC para optimizar y retro-alimentar su experiencia
dentro de una arquitectura flexible. Imitando la configuración de
una arquitectura originaria de Internet, CC ya ha dejado espacios
libres para la circulación de ideas que mejoren y optimicen sus desarrollos
en las capas lógicas y fundamentalmente de contenidos de Internet. En este punto es necesario volver a cuestionar
estos desarrollos con algunas preguntas. Imagine el lector que Creative
Commons fracasa en su intento regulativo y que, como suele ocurrir
con muchos proyectos en Internet, sea borrado del campo de las regulaciones
en Internet. Cierto es que cualquiera puede olvidar en una fracción
de segundos que es y como esta organizado Creative Commons,
quienes trabajan, el contenido de las licencias, el logotipo, o la
misma marca. Sin embargo, ¿pueden los lectores que han llegado hasta
esta instancia de mi análisis olvidar la idea que subyace a Creative
Commons? ¿Puede el lector olvidar como el laboratorio CC intenta
gobernar una de las problemáticas más conflictivas en momentos de
un nuevo enclosure en la capa de contenidos de Internet? ¿Podemos
olvidar el diseño de su estrategia basada en un nuevo arte regulativo?
Es obvio que no me interesó Creative Commons como corporación,
sino Creative Commons como un nuevo tipo emergente de organización-neo-gubernamental
que intenta involucrarse, a través de su laboratorio de mediaciones
técnico regulativas, en el campo de las regulaciones a través de estrategias
innovadoras que articulan el nuevo arte regulativo para diseñar proactivamente
el entorno común. Las regulaciones que efectivamente sirven están
ancladas en la oscura conquista del espacio, están fundadas en una
forma regulativa que va desde el diseño de las arquitecturas, pasando
por los códigos, hasta las opciones políticas que se ubican en la
cotidianeidad práctica de los usuarios finales, que hacen uso del
regulador normas sociales e intentan captar la inteligencia distribuida
y silenciosa que caracteriza nuestro entramado socio-técnico. En este
sentido, según Raymond (2001) el éxito de GNU/LINUX ha estado en que
muchos ojos, no solo ven más que dos, sino que pueden resolver y superar
la complejidad: muchos ojos resuelven la complejidad. El laboratorio
Creative Commons, más bazar que catedral, es entonces un espacio
de trabajo colaborativo, compartido, abierto, que brinda a los usuarios
la libertad de elegir y re-elegir optimizando sus rutinas. En todo
momento, es una invitación a compartir, a asociarse, a crear y a superar
la barreras clásicas en el campo de las regulaciones. Con buen criterio,
Yochai Benkler, asegura que Internet es un espacio construido bajo
tecnologías par a par, bajo el principio E2E, bajo tecnologías que
permiten construir espacios compartidos, en donde la inteligencia
es aportada, más que por núcleos centrales inteligentes, por los usuarios
finales. Miremos nuevamente la historia de Internet, su arquitectura,
sus lecciones, la experiencia organizativa que plantea un caso como
el del GNU/LINUX, o directamente tomemos el caso de las aplicaciones
par a par que se han vuelto difíciles de bloquear gracias a la facilidad
con que, hasta ahora, pueden resolver las barreras e inconvenientes
legales a través de alternativas desde las arquitecturas y el código.
La estrategia de CC ha sido tan extraordinaria
que, de tan evidente, se haya oculta en sus mismas bases. No combaten
las leyes, sino que las crean mediante un nuevo lenguaje. No combaten
las costumbres, las crean, y allí justamente, su estrategia es silenciosa
y se instala por su propio peso. No reaccionan en contra de las arquitecturas
y de las tecnologías de control, solo construyen otras, respetuosas
de los derechos básicos de un colectivo democrático. No están en contra
del mercado, intentan salvarlo de su cierre y del colapso final de
un capitalismo asfixiante. Cuando algo esta ya plasmado en el orden
social, es ya una realidad tan profunda que, la mayoría de las veces,
se vuelve complejo poder modificarla, conducirla, disciplinarla, en
suma, regularla. Creative Commons es un laboratorio, una instancia
política subvertora, y sobre todo, una instancia de codificación privada
que sirve de modelo a las futuras codificaciones públicas. CC quiere
mostrar como es que las codificaciones públicas deben funcionar, aunque
también pretenden más que eso. Pretenden ser los constructores de
esas codificaciones públicas futuras. Sin dudas, este es su objetivo
más evidente, pero a su vez el objetivo jamás enunciado. La silenciosa
conquista del ciberespacio recorre los laboratorios y CC, como una
experiencia reciente de diseño de entornos a través del nuevo arte
regulativo, no ha sido la excepción a esta regla. Creative Commons es la historia de una historia ambiciosa, de un laboratorio que supera
las barreras entre lo micro y lo macro. Es uno de los mejores ejemplos
de metástasis, de invasión, de creación de un laboratorio para construir
alternativas para la conservación y apertura de las diferentes capas
de Internet. CC es también es un buen ejemplo de cautela ante la proliferación
y venta ambulante de control por parte corporaciones comerciales y
estados nación alrededor del mundo. Las regulaciones, como dispositivos
polivalentes, son piezas esenciales del diseño de nuestro entorno
sociotécnico, aunque, hasta el momento, solo las regulaciones privadas
no comerciales, nacidas de una cultura de la libertad, muestran –afortunadamente-
una vitalidad que no se encuentra fácilmente ni en las leyes, ni en
el mercado, ni en el diseño de la tecnología por parte de las corporaciones
comerciales. La opción estratégica de CC es sin dudas múltiple, abierta
y heterogénea. Se hace fuerte justo allí donde deja de ser visible.
Por ello, el secreto de las nuevas regulaciones, sin dudas el motivo
de mi trabajo, la razón oculta en estas líneas, y tal vez, el paradójico
silencio de lo que está explícito, es la emergencia de una nueva forma
regulativa proactiva ligada a la oscura conquista de los laboratorios,
que crea y regula los espacios y las conductas a través del diseño
de aquello que confusamente llamamos tecnología. El nuevo arte regulativo
ha llegado para quedarse, las reglas han cambiado y este es solo el
comienzo de profundas modificaciones en la arquitectura política de
nuestras sociedades.
Finalizo
este sinuoso itinerario con diez conclusiones principales y algunas
reflexiones finales que contienen las líneas más importantes sobre
los resultados de la exploración. Espero que ellas me permitan, y
le permitan también a los lectores, pensar nuevas alternativas político regulativas para
nuestro futuro socio-cultural. Ha quedado claro que las
reglas que conducen la producción regulativa han cambiado radicalmente
en estos últimos años. El trabajo ha descrito partes de este cambio
de paradigma, las regulaciones,
su campo de acción, los reguladores en juego, las tendencias actuales en el nuevo arte regulativo, y las especiales condiciones
estructurales del ciberespacio. Finalmente, he explorado las especiales formas
y condiciones de producción de las nuevas codificaciones digitales,
las redes de actores involucrados y las posibles soluciones a problemas
de cierre de las capas superiores que componen el ciberespacio. Ha
quedado claro también que este nuevo arte es solo el comienzo de cambios
más profundos en la arquitectura socio-política de nuestras sociedades.
El campo de las regulaciones y sus técnicas tienen una importancia vital para nuestro
ambientalismo digital, puesto que el nuevo arte regulativo decide
el futuro inmediato y la ecología de las redes electrónicas. Tanto para las
regiones desarrolladas como para las regiones menos desarrolladas,
urge auscultar el campo de las regulaciones e intentar formar parte
de él mediante el nuevo arte regulativo emergente. Sabemos
que la tarea no es fácil. No todos conocen, y mucho menos, pueden
implementar el nuevo arte regulativo analizado. Esta situación diferencial
tiende a generar brechas de gobernabilidad cada vez más amplias entre
las regiones a nivel global. El campo de las regulaciones en Internet
posee un doble peligro. Por un lado, la reducida cantidad de regiones,
y dentro de las regiones, la escasez de redes de actores-humanos que
realmente están capacitados para lograr delegaciones con actantes-no-humanos
que generen códigos y estrategias para diseñar el ciberespacio de
forma abierta y transparente. Solo quienes estén en condiciones de
generar códigos para la red, y logren articularlos con los otros reguladores
disponibles, podrán acceder a los niveles superiores de este nuevo
tipo de gobierno de los espacios comunes. Para el resto, la regulación
se transformará en una instancia prohibitiva que deberá ser importada
desde donde se produce. Por otro lado, el gran peligro que azota al
campo de las regulaciones en Internet es que los laboratorios y contra-laboratorios
diseñen y retroalimenten un entorno que habilite un control centralizado,
perfecto y asfixiante a través de la producción de códigos cerrados.
Esta amenaza es muy cierta frente a la proliferación de tecnologías
de control. Estas, con el apoyo de las regulaciones jurídico clásicas,
pueden modificar la apertura y libertad que permitió el desarrollo
de Internet como un espacio de libertad e innovación. Las conclusiones finales de un trabajo exploratorio
deben necesariamente retomar la modestia con la que comencé el trabajo.
Esta modestia es fundamental para que este trabajo pueda ser continuado
en futuros análisis, para que pueda ser retomado por otros investigadores,
por otros profesionales, que se aboquen a este complejo campo. Por
tanto, estas reflexiones finales no deben entenderse como conclusiones
definitorias o cerradas. Seguramente, con el correr de los años, estas
ideas iniciales quedarán obsoletas y deberán ser optimizadas. Así
lo espero, puesto que estas reflexiones finales deben necesariamente
superarse con nuevos interrogantes y desafíos. Sin embargo, entiendo
estas ideas finales como una guía sobre la cual debemos construir
las regulaciones futuras en un campo incierto, plagado de tensiones
y gobernado por técnicas que contienen el futuro inmediato de nuestra
condición sociotécnica. Estoy convencido que estas conclusiones contienen
las líneas rectoras y los puntos salientes de las luchas actuales
que procuran conseguir sociedades abiertas y defender la cultura de
la libertad que todavía puede observarse en partes importantes del
ciberespacio. Doy lugar a las conclusiones: I) Las infinitas regulaciones con las que convivimos
diariamente conforman una parte vital para el funcionamiento de nuestras
sociedades. Aunque las perspectivas clásicas sobre las regulaciones
no puedan encontrar sus profundas raíces, las mismas alcanzan la fibra
íntima de nuestro entramado social e implican siempre opciones tanto
políticas como técnicas. Para observar su composición heterogénea,
las regulaciones deben ser analizadas como mediaciones técnico regulativas.
En otras palabras, deben observarse como dispositivos políticos provenientes
de diferentes tiempos y espacios, compuestos por redes heterogéneas
de actores-humanos y actantes-no-humanos que median y unen el entramado
social. Estas regulaciones están dirigidas a lograr mayor estabilidad
mediante delegaciones de funciones en los heterogéneos ensamblajes
de actores-humanos y actantes-no-humanos. Las mediaciones técnico
regulativa tienen por objeto intervenir en una situación práctica
para lograr una estabilidad perdurable a través del control de conductas
y espacios. Por ello, las mediaciones técnico regulativas poseen una
ambigüedad constitutiva, están caracterizadas por ser dispositivos
polivalentes que pueden volverse irreversibles y pasar a funcionar,
no como estructuras de asociación y cooperación, sino como estructuras
de dominación. Sin embargo, este cambio de calidad hacia la (ir)reversibilidad
dependerá de los usos finales, de las redes y las delegaciones que
sostienen la mediación técnica de dicha regulación.
II) Las mediaciones técnico regulativas se concentran en un campo de tensiones
políticas altamente heterogéneo. El campo de las regulaciones en Internet es un campo móvil e ineludible, compuesto de mediaciones técnico regulativas
que tiene por objeto el control social en sentido amplio. El diseño de entornos
que las mediaciones logran, a pesar de la movilidad de su campo, tiene
centros bien definidos de producción. La creación y diseño de los
entornos digitales se ubica en laboratorios que, superando las escalas
de tiempo espacio, pueden diseñar el entorno y transformar materiales
con potencial para el control local en materiales relativamente móviles,
con control a distancia y durables a través del tiempo. El campo de
las regulaciones en Internet está atraído por la efectividad que las mediaciones
técnico regulativas pueden alcanzar subvirtiendo la política, integrándola
y delegándola en redes estables de actantes-no-humanos. Por tanto,
el campo de las regulaciones esta atravesado por la tensión
entre dos paradigmas contrapuestos: por un lado, un diseño de entorno
cerrado, controlado, centralizado, basado en la seguridad del trafico
mercantil, y por el otro, un diseño de entorno digital abierto, libre,
distribuido, basado en la cooperación creativa de las comunidades
que producen y mantienen el espacio. Esta tensión originaria y permanente
se da entre el diseño de las polivalentes mediaciones técnico regulativas
y los resultados efectivamente alcanzados luego de cualquier intervención.
Ambos momentos están gobernados por los usos-finales de los actores
que soportan las redes. III) La codificación de nuestra experiencia socio técnica
esta cambiando rápidamente. Muchos de estos cambios, aún silenciosos
e invisibles, son producto del vertiginoso desarrollo de
las tecnologías digitales. Si bien Internet es un espacio difícil para la regulación
jurídica clásica, no lo es para las regulaciones vinculadas al diseño
del mismo entorno digital. Las leyes, a pesar de su visibilidad y
sistematicidad, son una mediación técnico regulativa que no logra
regular de forma efectiva el ciberespacio. El derecho queda como garantización
de otros reguladores puesto que pose una lógica ex post facto,
discontinua, reactiva, que delega funciones en redes compuestas altamente
por actores-humanos. Esto vuelve su práctica discrecional y contingente.
Contrariamente, las olvidadas normas sociales
son mucho más silenciosas, profundas, efectivas, puesto que, a pesar
de su invisibilidad, se hunden en lo profundo de nuestro entramado
socio-técnico. Junto a las silenciosas estrategias de las normas sociales,
el regulador que
debemos tener en cuenta para un correcto análisis del ciberespacio
es el código del espacio de las aplicaciones de Internet ubicado en
la interfaz que relaciona simbióticamente los actores-humanos y los
actantes-no-humanos. Este código es un tipo de lenguaje procesable
por humanos, una mediación producida en laboratorios de diseño de
entornos digitales, a través del cual se generan y delegan directamente
instrucciones legibles por redes de actantes-no-humanos estables y
perdurables en el tiempo. Los reguladores se mixturan en la regulación
del ciberespacio y su diseño, elección, articulación y optimización conforma un nuevo arte regulativo,
que producido en laboratorios, diseña y construye proactivamente el entorno digital
en el mismo momento que lo regula bajo el signo de la oscura y silenciosa
conquista del ciberespacio. IV) Internet posee una extraña pero fascinante forma de gobierno guiada
por el nuevo arte regulativo de laboratorios que transforma la arquitectura silenciosa
de Internet en la instancia política por excelencia en el campo de
las regulaciones. Por arquitectura entendemos la estructura de Internet
que, más o menos flexible, define el estado de las mediaciones técnico
regulativas en un espacio tiempo determinado. La arquitectura de Internet,
más flexible y modificable que la arquitectura de lo urbano, se encuentra
dentro del mundo digital, o sea, próxima al espacio abstracto de las
ideas. La arquitectura originaria, desde sus inicios, está estructurada
de forma abierta, flexible, y transparente, lo que permite modificaciones
y agregados a sus bases constitutivas. Esta flexibilidad y apertura
originarias han sido su mayor virtud al mismo tiempo que uno de los
mayores peligros. Su alteridad implica también la posibilidad de su
cierre frente a la proliferación de tecnologías de control. La
arquitectura evidencia una tensión entre los diseños originales y
los usos finales sobre el espacio. Estas tensiones emergieron
claramente frente a los cambios profundos que comenzaron a afectar
la arquitectura de la red cuando se hizo evidente la obsolescencia
del derecho clásico reactivo para su regulación. De los laboratorios
emergió un nuevo ethos cibernético
-basado en las formas políticas silenciosas, seductoras,
alternativas- que comenzó a usar
el diseño de entornos digitales, a través del código, para regular
usos, conductas, accesos y espacios en Internet. La arquitectura
pasó a ser la política de la red y su diseño político pasó gobernar
la ecología informacional. V) Internet es una red descentrada,
altamente interconectada y compuesta computadoras enlazadas, lenguajes
comunes, aplicaciones y contenidos. Su arquitectura (originaria) es
distribuida, abierta, flexible, transparente y auto-evolutiva, gracias
a procesos técnicos de delegación de funciones sobre redes heterogéneas
de actores-humanos y actantes-no-humanos provenientes de una cultura
de la libertad que soportó su desarrollo. La arquitectura de Internet, visto desde su evolución
tecnológica, es descentrada producto de la conmutación de paquetes
(Packet Switching). Desde su evolución organizacional, es una
arquitectura abierta a los cambios gracias a la creación de un protocolo
común de comunicaciones (TCP/IP). En la evolución
de su diseño (filosófico-proyectual) los diseñadores tempranos de
la red utilizaron el argumento End to End para construir redes
inteligentes en sus márgenes, en su extremos, más que en su centro.
La arquitectura fue pensada para establecer un marco minimalista y
redundante bajo un nuevo paradigma que hace uso de reglas simples
para la resolución de problemas complejos. Ello desactivó el control
centralizado, desplazó el procesamiento de la información hacia los
constructores-productores y permitió el florecimiento de un espacio
abierto y libre de innovación común sustentado en una arquitectura
par-a-par donde la relación entre servidores y clientes es reversible,
simétrica y equitativa. El desarrollo auto-evolutivo de Internet,
semejante a un organismo biológico, permitió que los usuarios sean
también productores de la misma tecnología que construía el ciberespacio. VI) La arquitectura política de Internet esta lejos
de tener una naturaleza pétrea e inalterable. Las luchas por el control
de la red, analíticamente, pueden sintetizarse en diferentes capas
que componen su arquitectura. El medio Internet está dividido al menos
en 3 capas independientes (físicas, lógica, de contenidos) las que
admiten diferentes tipos de control sobre sus recursos (propiedad
privada, gestión común, dominio público). La capa de la infraestructura
de Internet es una capa altamente controlada bajo el régimen de la
propiedad privada. Por el contrario, la mayor parte de Internet en
lo referido a su capa lógica se construyó a base de estándares abiertos
no propietarios que crearon un espacio de libertad en las capas del
código y de contenidos, y para cuyo acceso no se requerían controles
en relación a la identidad o actividad desarrollada. El control sobre
las capas lógica y de contenidos es el punto más conflictivo en la
actual regulación de la red, puesto que existe -desde la década del
80- una clausura (trágica) de los espacios comunes de Internet a manos
de algunas tecnologías de control e identificación. La capa lógica,
donde reina la producción del código, enfrenta de manera radical el
software libre contra el software propietario. El código abierto y
libre constituye un importante mecanismo de control frente al poder
del estado y de corporaciones comerciales. El respeto de la arquitectura
originaria, la separación, autonomía, transparencia e integridad de
las capas que componen la red, así como el desarrollo abierto, distribuido
y cooperativo de Internet, son esenciales para garantizar la libertad
de nuestra ecología informacional. VII)
El código abierto y transparente es patrimonio de nuestra condición
sociotécnica común. Posee la profundidad, apertura e incertidumbre
de nuestra evolución como humanos. Sin embargo, cuando exclusivamente
los intereses comerciales son los que determinan y producen el código
nos encontramos frente a una traducción peligrosa donde el código
hace las veces de leyes a las que falta la carga publica común. El
cierre de la capa lógica, la producción de código cerrado por dinero,
fue resistido en la década del 80 a través de la Licencia Pública
General de la Fundación para el Software Libre. La misma se compuso
de partes jurídicas, partes éticas provenientes de la cultura hacker,
usos y normas sociales, y sobre todo, de partes de código de la capa
de las aplicaciones. Se conformó un dispositivo regulativo proveniente
de la esfera privada-no-comercial que se
deslizó hacia el ámbito público, no como posibilidad, sino como alternativa
real, regulando a través del código y respaldándose en otros reguladores
clásicos. El caso de la GPL es uno de los primeros antecedente del
nuevo arte regulativo que articula los diferentes reguladores con
el fin de proteger la apertura y transparencia en las capas de Internet.
Cuando las regulaciones públicas clásicas son inviables, cuando
las corporaciones del software, del entretenimiento cultural y, en
suma, cuando las regulaciones que resguardan el interés público están
gobernadas exclusivamente por intereses privados comerciales, las
codificaciones que parten del espíritu libre de los intereses privados
no comerciales de usuarios-ciudadanos
productores finales se transforman en una vía de escape alternativa
a los procesos de cierre y caída de la representación de las democracias
occidentales. VIII)
Frente al nuevo arte
regulativo emergente las regulaciones abiertas son un gran desafío
histórico y un proceso muy necesario. El cierre de la capa lógica se ha extendido en la
década del 90 a la capa de contenidos de Internet. La tragedia de
los espacios comunitarios, de los bienes intangibles de la mente,
está dada también por el cerramiento en la capa de contenido. Esta
enfrenta la privatización y sobreprotección, tanto legal como tecnológica
(tecnologías de control), de los contenidos que circulan en la red.
La propiedad (dominio) puede extenderse hacia los derechos de autor haciendo
uso de la analogía de la “propiedad intelectual”. Los plazos de protección
de las obras creadas a nivel global han sido extendidos en el mismo
momento en que los efectos prácticos de las regulaciones pasaron a
brindar una cobertura instantánea y a-formal, lo que puede generar
una grave merma en la creación de nuevas obras. Más allá de la tensión
histórica entre derechos de autor y tecnologías de producción, copia
y representación, las regulaciones legales sobre el derecho de autor
fueron perdiendo en la última parte del siglo XX su verdadero sentido,
su misión, su razón de ser. Han dejado de generar incentivos a la
creatividad, la ciencia y los valores democráticos y se han transformado
en una pesada carga explotando la creatividad y riqueza de las comunidades.
Afortunadamente, gracias a la arquitectura de Internet, el código
y las regulaciones en las capas de Internet no son diseñadas exclusivamente
por las corporaciones comerciales. Aunque todavía insuficiente, existe
un fuerte activismo (hacktivismo) de comunidades de usuarios-productores
y universidades que contribuyen, a través de sus laboratorios, a producir
espacios abiertos al libre intercambio. IX) Son escasos los actores e instituciones con capacidad
y voluntad suficientes para asumir los desafíos del nuevo arte regulativo.
Sin embargo, es posible que nos encontremos
frente a la gestación de un nuevo movimiento social global que se
aboca a la protección de la diversidad cultural, el dominio público y los valores que
sustentan las sociedades abiertas y libres. El emergente más
importante del campo de las regulaciones en Internet es la aparición
de corporaciones sin fines de lucro, organizaciones-neo-gubernamentales
(ONGs) soportadas por comunidades de usuarios productores, que están
interesadas en preservar las libertades básicas de las sociedades
democráticas. Estas hacen uso del nuevo arte regulativo a través de
laboratorios, creando y diseñando el ciberespacio al mismo tiempo
que lo regulan. Sin embargo, no lo hacen mediante las formas clásicas
instituidas, sino a través de formas innovadoras subvertoras del orden
estatuido. Las arquitecturas par-a-par muestran que la inteligencia
es aportada, más que por núcleos centrales inteligentes, por los usuarios
finales-productores. Por ello, las regulaciones efectivas van desde
el diseño de las arquitecturas, pasando por los códigos, las leyes,
hasta las mediaciones políticas que se ubican en la cotidianeidad
práctica de los usuarios productores finales e intentan captar la
inteligencia distribuida y silenciosa que caracteriza nuestro entramado
socio-técnico. A finales de 2002 se creó Creative Commons,
una organización-neo-gubernamental pensada como un espacio abierto,
cooperativo y comunitario. Creative Commons funciona como un
contra-laboratorio de diseño de entornos que se enfrenta a las ineficientes
regulaciones clásicas de las capas superiores de la red y participa
en el gobierno y conquista silenciosa del ciberespacio, mediante codificaciones
privadas, abiertas y creativas. X) La estrategia de Creative Commons
de tan evidente, se haya oculta en sus mismas bases. Creative Commons
es una invitación a compartir, a asociarse, a crear y (re)crear, a
fusionar y mixturar obras, para superar la barreras clásicas en el
campo de las regulaciones. Conforme al nuevo arte regulativo y, haciendo
uso de los diferentes reguladores que lo componen, los diseñadores
de Creative Commons establecieron una estructura de licencias
compuestas de tres niveles. El acuerdo o título común (Commons
Deed) está claramente orientado hacia las normas sociales, a trabajar
sobre el emergente de los usuarios creadores, y es legible por humanos
en general. El segundo nivel, de las licencia o código legal (Legal
Code) se apoya directamente en el derecho y es legible por humanos
entendidos en leyes. Finalmente, a través del código digital (Digital
Code), el metadata pretende crear una web semántica solo procesable
por actantes-no-humanos, como pieza fundamental para los buscadores
y aplicaciones que intenten dar con las obras y las condiciones de
uso de las mismas. Creative Commons no combate las leyes, sino
que las crea mediante un nuevo lenguaje. No destruye las costumbres,
las crea entendiendo y aprovechando la diversidad de las normas sociales.
No reaccionan en contra de las arquitecturas o contra las tecnologías
de control, solo construyen otras que son respetuosas de los derechos
básicos de un colectivo democrático. No están en contra del mercado,
solo intentan devolver un balance y evitar el colapso final de un
capitalismo asfixiante. Creative Commons es un laboratorio
político subvertor, una instancia de codificación privada que pretende
construir e imponer, a través de la fuerza de lo que ya es, las futuras
codificaciones públicas sobre las capas superiores de Internet. Por ultimo, algunas reflexiones e interrogantes
finales que podrían ayudar a establecer nuevos itinerarios, desafíos, algunas
pistas y nuevas investigaciones en el campo de las regulaciones
en Internet. He analizado que las regulaciones, como dispositivos
polivalentes, son piezas esenciales del diseño de nuestro entorno
sociotécnico. Sin embargo, insisto que estos procesos no son claros
ni evidentes como generalmente se supone. Sepa el lector que en este
trabajo he intentado un camino de tantos posibles. Desde mi perspectiva,
el secreto de las nuevas regulaciones, el motivo de mi trabajo, la
razón oculta en estas líneas, es la emergencia de una nueva forma
regulativa proactiva, ligada a la oscura conquista de los laboratorios,
que crea y domina los espacios y las conductas a través del diseño
mismo del entorno digital. Luego de haber aportado material, analizado
y explorado el campo de las regulaciones, creo que ha quedado claro
que el nuevo arte regulativo ha llegado para quedarse. Sin embargo,
también se que estos procesos son muchos más amplios que las posibles
tendencias que he podido describir. Tengo la certeza que los cambios
recién están comenzando y por ello, creo necesario continuar investigando
el complejo campo de las regulaciones en el ciberespacio y su nuevo
arte regulativo emergente. Esta es una tarea muy necesaria que debemos
realizar los interesados en la libertad, la apertura, la diversidad
cultural y la protección del ambiente digital. Como he expresado anteriormente, Creative
Commons es la historia de una historia ambiciosa, es uno de los
mejores ejemplos de metástasis, de invasión, de creación de un laboratorio
para construir alternativas de apertura en las diferentes capas de
Internet. Pero también es un buen ejemplo de cautela ante la proliferación
y venta ambulante de control por parte de corporaciones comerciales
y estados nación alrededor del mundo. La solución a estas luchas de
altísimo nivel será, irreversiblemente, la solidificación de un determinado
estado de cosas, no solo a través del antiguo poder de nominación
que todavía conserva la estructura jurídica moderna, sino por la solidificación
de una red interminable de actores-humanos y actantes-no-humanos que
se transformarán en poco tiempo en lo que conocemos, en la naturaleza
misma del ciberespacio. Las regulaciones privadas no comerciales,
nacidas de una cultura de la libertad, muestran afortunadamente una
vitalidad que no se encuentra fácilmente ni en las leyes, ni en el
mercado, ni en el diseño de la tecnología por parte de las corporaciones
comerciales. En este sentido, y a sabiendas de que esto puede significar
muy poco, sabemos que a un año de su lanzamiento Creative Commons
tenía solicitadas más de 1.400.000 licencias. Creo ver que este es
un claro indicador del crecimiento vertiginoso de este experimento
calculado y diseñado a través de laboratorios. Sin embargo, lo más importante que puedo decir
al finalizar este trabajo, es que la eficacia del laboratorio Creative
Commons para regular los derechos de autor a nivel global será
decidida por los usuarios finales que hagan uso y aprovechen las mismas
licencias. El laboratorio Creative Commons ha logrado dar el
primer paso en el diseño y codificación de un entono, pero resta aún
la utilización que los usuarios hagan de este espacio y la capacidad
que tenga Creative Commons para optimizar y retro-alimentar
su experiencia dentro de una arquitectura flexible que evite el enclosure
en las capas lógicas y fundamentalmente de contenidos de Internet.
Allí es donde el activismo digital parece cobrar real entidad. Lo
importante en este punto es tener claro que un proyecto como Creative
Commons es consecuencia de la acción colectiva y no causa de esta
misma acción. En otras palabras, Creative Commons es el resultado
de mediaciones configuradas previamente por los usuarios finales.
¿Existiría Creative Commons sin las licencias que le sirvieron
de inspiración, sin el concepto de Copyleft, sin el desarrollo de
las tecnologías par a par (P2P) que le sirven de antecedente? ¿Existiría
Creative Commons sin los usuarios que diariamente hacen uso
de las licencias y confirman la voz silenciosa de los que configuran
el ciberespacio? Analizar Creative Commons como la resultante
de un proceso mayor es el mejor de los procedimientos a la hora de
auscultar los procesos complejos que componen nuestro entramado sociotécnico.
Pero, ¿por qué digo esto? En caso que Creative Commons fracase
en su misión y sea barrido del campo de las regulaciones, insisto
en preguntar, ¿puede el lector olvidar la idea que subyace a Creative
Commons? ¿Puede el lector olvidar como el laboratorio Creative
Commons hace uso de este nuevo arte regulativo? Asimismo, es posible
que olvidemos a Richard Stallman y su cruzada moral, pero insisto
¿es posible que nos olvidemos de la producción abierta del software,
de la importancia que el mismo reviste para nuestro ambientalismo
digital, o directamente, la importancia que el software libre tiene
sobre la actual economía digital? ¿Podemos olvidarnos de Napster?
Ciertamente si, pero ¿pueden los lectores olvidarse las tecnologías
P2P, o aquello que subyace a la arquitectura abierta y auto-evolutiva
de Internet? La red cambia rápidamente, muchas veces sin que podamos
percibirlo. Seguramente, Creative Commons tendrá que crear
nuevas estrategias de intervención en el campo de las regulaciones.
No hay dudas que debemos seguir de cerca los pasos de este laboratorio
y analizar sus estrategias de intervención en un campo tan complejo
a nivel mundial. Sin embargo, estoy seguro que deben existir otros
casos que puedan mostrar las mismas tendencias hacia este nuevo arte
regulativo, que puedan evidenciar la presencia de mediaciones técnico
regulativas que se hayan silenciadas. Confío que el desarrollo de
este trabajo, junto a estas reflexiones finales, puedan generar los
incentivos suficientes para que muchos ojos puedan resolver la complejidad
en la que nos encontramos a nivel global, pero fundamentalmente a
nivel local.
Abeles, Martín; Forcinito, Karina; Schorr, Martín: ‘El oligopolio telefónico argentino
frente a la liberalización del mercado: de la privatización de ENTEL
hasta a la conformación de los grupos multimedia’; Universidad Nacional
de Quilmes, Buenos Aires, Argentina, 2001. Agazzi, Evandro; ‘El impacto epistemológico de la
tecnología’; Universidad Génova, Italia; http://www.argumentos.us.es/numero1/agazzi.htm (última visita,
agosto de 2002). Aseff, Lucía: “De teorías críticas y Jusnaturalismos”.
Boletín de la ‘Asociación Argentina de Filosofía del Derecho’, N°61;
La Plata, 1993. Barlow, John Perry; ’The Economy of Ideas: Selling Wine Without Bottles on the Global Net’, en
http://www.eff.org/~barlow/EconomyOfIdeas.html; (última visita, agosto 2003); publicado originariamente
en la revista Wired, en el mes de Marzo de 1994. Barlow,
John Perry; ‘A Declaration of the Independence
of Cyberspace’; 1996, http://www.eff.org/~barlow/Declaration-Final.html
(última visita, Noviembre de 2002). Baudrillard, Jean; ‘El crimen perfecto’, Anagrama,
Barcelona, España, 1995. Benkler,
Yochai; ‘Communications infrastructure regulation
and distribution of control over content’; New York University http://www.law.nyu.edu/benklery/ Telecommunications Policy
183 (1998) http://www.benkler.org/PolTech.pdf
(última visita, Julio 2003). Benkler,
Yochai; ‘From Consumers to Users: Shifting
the Deeper Structures of Regulation Toward Sustainable Common and
User Access’; New York University http://www.law.nyu.edu/benklery/
Federal Communications Law Journal, 561, 2000 http://www.law.indiana.edu/fclj/pubs/v52/no3/benkler1.pdf
(última visita, Julio 2003). Berners
Lee, Tim; ‘Tejiendo la red: el inventor del
World Wide Web nos descubre su origen’; Siglo XXI de España editores,
Madrid, España, 2000. Borges, José Luis; ‘Otras inquisiciones’ en Obras
Completas, Emece, Buenos Aires, Argentina, 1974. Bourdieu, Pierre: “Cosas Dichas”. Gedisa, Barcelona,
España, 1993. Bourdieu, Pierre; ‘La distinción: criterios y bases
sociales del gusto’; Taurus, Madrid, España, 1999 (A). Bourdieu, Pierre: “Meditaciones Pascalianas”. Anagrama,
Barcelona, España, 1999 (B). Bourdieu, Pierre: ‘Poder, Derecho y Clases Sociales’,
Desclee de Brouwer, Bilbao, España, 2000. Boyle,
James: ‘Foucault in Cyberspace: Surveillance,
Sovereignty, and Hard-Wired Censors’, 1997 (A), http://james-boyle.com/foucault.htm
(última visita, Agosto 2003). Boyle,
James: ‘A Politics of Intellectual
Property: Environmentalism For the Net?’, 1997 (B) http://www.law.duke.edu/boylesite/intprop.htm#N_1_;
(última visita, Agosto de 2003). Boyle,
James: ‘The Second Enclosure Movement and
the construction of the public domain’, en ‘Law and Contemporary Problems’,
Febrero de 2003; URL del documento: http://james-boyle.com/papers.pdf (última
visita, Agosto 2003). Breuer,
S: “Burocracia y carisma”.
Generalitat Valenciana, Valencia, España, 1996. Broncano,
Fernando; ‘Mundos Artificiales: Filosofía del cambio tecnológico’; Paidos, México
DF, México, 2000. Cafassi,
Emilio; Internet: Políticas y
comunicación, Biblos, Buenos Aires, Argentina, 1998. Callon,
Michel; ‘Redes tecno-económicas
e irreversibilidad’, en Revista Redes N°17, Quilmes, Argentina, 1998. Candeira,
Javier; ‘La Web como memoria organizada: el hipocampo colectivo de la red’, en http://jamillan.com/para_can.htm;
Madrid, marzo de 2001, (última visita, Marzo 2003). Castells,
Manuel; ‘La era de la información: Economía, sociedad
y cultura’, Siglo
XXI, México DF, México, 1999; (Volúmenes 1 y 2) Castells,
Manuel; ‘La Galaxia Internet’.
Areté, Madrid, España, 2001. Castells,
Manuel; ‘Internet, Libertad y Sociedad:
Una perspectiva analítica’. Conferencia inaugural del curso académico
2001/2 de la UOC, 2001, http://www.uoc.es/web/esp/launiversidad/inaugural01/intro_conc.html
(última visita, Noviembre 2002). Cebrian,
Juan Luis; ‘La red: como cambiarán
nuestras vidas los nuevos medios de comunicación’ Taurus, Buenos Aires,
Argentina, 1998. Cerf, Vinton;
prólogo en ‘The Internet under Surveillance: obstacles to the free
flow of information online. Reporters without borders, Reporter 2003;
http://www.rsf.org/IMG/pdf/doc-2236.pdf
(última visita, Noviembre 2003). Ciapuscio,
Héctor; ‘El conocimiento tecnológico’
en la Revista Redes, N° 6, Quilmes, Argentina, 1996. Cornella,
Alfons; ‘Cómo sobrevivir a la Infoxicación’.
Conferencia en la Universidad Abierta de Cataluña (UOC), del ciclo
1999-2000, diciembre de 2000; http://uoc.es/articles/cornella/acornella.htm (última visita, Julio 2002). de
Kerckhove, Derrick; ‘La piel de la cultura; Investigando la nueva realidad electrónica’. Gedisa,
Barcelona, España, 1995. de
Kerckhove, Derrick; ‘Inteligencias en
Conexión. Hacia una sociedad de la Web’. Gedisa, Barcelona, España,
1999. Dertouzos,
Michael; ‘La revolución incompleta’, Fondo de Cultura Económica de Argentina, Buenos
Aires, Argentina, 2003. Devoto,
Mauricio; ‘El comercio eléctrico y la firma digital: las regulaciones del ciberespacio
y las estrategias globales’, La ley, Buenos Aires, 2001. Díaz,
Esther (editora); ‘La Posciencia:
El conocimiento científico en las postrimerías de la modernidad’.
Biblos, Buenos Aires, Argentina, 2000. Dick, Philip K.; ‘¿Sueñan
los androides con ovejas eléctricas?; Edhasa, Barcelona, España, 1992. Doménech,
Miquel y Tirado, Francisco Javier (comp); ‘Sociología Simétrica: Ensayos sobre
ciencia, tecnología y sociedad’. Gedisa, Barcelona, España, 1998. Eco,
Umberto; “Apocalípticos e Integrados”,
Editorial Lumen-Tusquest, Barcelona, España, 1999. Ferraro,
Ricardo; “La marcha de los locos.
Entre las nuevas tareas, los nuevos empleos y las nuevas empresas”.
Fondo de Cultura Económica, Buenos Aires, Argentina, 1999. Ferrer,
Christian; “Mal de ojo. El drama de
la mirada”. Colihue, Buenos Aires, Argentina, 1996. Fidler,
Roger; Mediamorfosis, Granica, Buenos Aires, Argentina, 1998. Finquelievich,
Susana (compiladora); ‘Ciudadanos a la Red; Los vínculos sociales
en el Ciberespacio’, La
Crujía, Buenos Aires, Argentina ,2000. Fischer,
Hervé; ‘El choque digital’, Editorial de la Universidad de Tres de Febrero, Tres
de Febrero, Argentina, 2002. Fitzpatrick,
Peter; ‘La mitología del derecho
moderno’. Siglo XXI, México DF, México, 1998. Foucault,
Michel; ‘¿Qué es un Autor?, Universidad Autónoma de Tlaxala, México, 1985. Foucault,
Michel; ‘Vigilar y Castigar: nacimiento de la prisión’; Siglo XXI editores, Buenos
Aires, Argentina, 1991 (A). Foucault,
Michel; ‘La gubernamentalidad’
en ‘Los espacios de poder’, La Piqueta, Madrid, España, 1991 (B). Foucault,
Michel; “La genealogía del racismo”.
Caronte, Buenos Aires, Argentina,
1996 (A). Foucault,
Michel; ‘¿Qué es la Ilustración?’.
Alción Editora, Córdoba, Argentina, 1996 (B). Foucault,
Michel; “Nietzsche, la genealogía
y la Historia”. Pre-textos, Valencia, España, 1997. Foucault,
Michel; ‘La verdad y las formas
jurídicas’; Gedisa, Barcelona, España, 2000. Fukuyama, Francis; ‘El
fin del hombre’, Sine Qua Non, Buenos Aires, Argentina, 2003. Garland, David; ‘Castigo
y sociedad moderna: un estadio de la teoría social’; Siglo XXI editores,
México DF, México, 1999. Gibson, William; “Neuromante”. Minotauro, Barcelona, España, 1989. Gille,
Bertrand; ‘Introducción a la historia
de las Técnicas’, Crítica-Marcombo, Barcelona, España, 1999. Gómez,
Ricardo; ‘Progreso, determinismo,
y pesimismo tecnológico’, Revista Redes, N° 10, Quilmes, Argentina,
1997. Gómez
Vieites, Alvaro y Veloso Espineira, Manuel: ‘Redes de computadoras e Internet: funcionamiento,
servicio y alternativas de conexión’ Alfaomega, México DF, México,
2003. Gubern,
Román; ‘El Eros Electrónico’ Taurus,
Madrid, España, 2000. Harvey, Edwin R.: ‘Derechos
de Autor, de la Cultura, y de la Información; Editorial Depalma, Buenos
Aires, Argentina, 1975. Hegel,
Guillermo Federico; ‘Filosofía del Derecho’.
Claridad, Buenos Aires, Argentina, 1955. Himanen,
Pekka: ‘La ética del hacker
y el espíritu de la era de la información’, Destino, Buenos Aires,
Argentina, 2001. Hopenhayn,
Martín: “Ni apocalípticos ni integrados”.
Fondo de Cultura Económica Chile S.A., Santiago, Chile, 1995. Huxley,
Aldous; ‘Un mundo feliz’; Editores Mexicanos Unidos, México DF, México, 1985. Internet
Society (ISOC); ‘Internet Histories’, documentos actualizados por última vez el 10 de abril
de 2003 http://www.isoc.org/internet/history,
(última visita, Agosto 2003). Jameson,
Fredric: ‘El posmodernismo o la lógica cultural del capitalismo avanzado’ Paidós,
Barcelona, España, 1995. Kant,
Immanuel; ‘Sobre la paz perpetua’.
Tecnos, Madrid, España, 1996. Kant,
Immanuel; ‘Ideas para una historia
universal en clave cosmopolita y otros escritos sobre Filosofía de
la Historia’. Tecnos, Madrid, España, 1996. Kapor, Mitchell; ‘The
Software Design Manifesto’, editado en 1990, http://www.kapor.com/homepages/mkapor/Software_Design_Manifesto.html,
(última visita, Abril 2003). Kelly, Kevin; ‘Out
of control: New Biology of Machines, Social Systems, and the Economic
World’ en http://www.kk.org/outofcontrol/contents.php,
1994; (última visita, Abril 2003). Kelly, Kevin;
‘Nuevas reglas para la nueva economía’, Granica, Buenos Aires, Argentina,
1999. Klimovsky,
Gregorio; Las desventuras del conocimiento
científico’ A-Z Editora, Buenos Aires, Argentina, 1997. Kossick,
Robert; ‘The Internet in Latin America: New Opportunities, Developments &
Challenges’, Revista Alfa-Redi,
Número 33, 2001 http://www.alfa-redi.org/upload/revista/102401--22-43-internet.doc,
(última visita, Julio 2003). Latour,
Bruno y Woolgar, Steve: ‘La vida en el laboratorio.
La construcción de los hechos científicos’. Alianza Editorial, Madrid,
España, 1995. Latour,
Bruno: ‘Dadme un laboratorio y
levantaré el Mundo’; http://www.campus-oei.org/salactsi/latour.htm;
Edición original 1983, traducción de Marta I. González García, (última
visita, Septiembre 2003). Latour,
Bruno: ‘Jamais Fomos Modernos’;
Editora 34, Río de Janeiro, Brasil, 1994. Latour,
Bruno: ‘Ciência em Ação: Como
seguir cientistas e engenheiros sociedade afora’; Editora UNESP, Río
de Janeiro, Brasil, 1997. Latour,
Bruno: ‘La esperanza de Pandora.
En ensayos sobre la realidad de los estudios de la ciencia’. Gedisa
editorial, Barcelona, España, 2001. Latour,
Bruno: ‘Reflexão sobre o culto
moderno dos deuses fe(i)tiches’; Editora EDUSC, Río de Janeiro, Brasil,
2002 (A). Latour,
Bruno: ‘Scientific Objects and Legal Objectivity’, página personal del autor:
http://www.ensmp.fr/~latour/articles/article/088.html#1b
2002 (B); versión revisada del capítulo 5 de ‘La Fabrique du Droit:
Une ethnographie du conseil d’Etat’; La Découverte, París, Francia,
2002; (última visita, Agosto 2003). Law, John; ‘Notes on the theory of the
Actor-Network: Ordering, Strategy and Heterogeneity’, www.comp.lancs.ac.uk/sociology/soc054jl.html,
2001, Center for Science Studies, Lancaster University; (última visita,
Noviembre 2002). Lefebvre, Henri; ‘Hegel, Marx, Nietzsche’.
Siglo XXI, México DF, México, 1998. Lessig,
Lawrence; ‘Tyranny in the infrastructure’ Julio de 1997, Revista Wired, http://www.wired.com/wired/archive/5.07/cyber_rights_pr.html (última visita, agosto
2003). Lessig, Lawrence; ‘The Laws Of Cyberspace’,
Draft Número 3, 1998 http://www.lessig.org/content/articles/works/laws_cyberspace.pdf
(última visita, Octubre 2003). Lessig, Lawrence. ‘Code and other laws of cyberspace’
Basic Books, 1999 (A), New York. Lessig, Lawrence; ‘Reclaiming
a Commons’, Draft 1.01, Mayo de 1999, http://cyber.law.harvard.edu/events/lessigkeynote.pdf, Berkman Center for Internet
and Society, Universidad de Harvard (B), (última visita, Octubre 2003). Lessig, Lawrence; “Architecting for Control”,
Draft 1.0, Mayo 2000, en http://cyberlaw.stanford.edu/lessig/content Stanford Law School. (A), (última visita, Octubre 2003). Lessig, Lawrence. ‘Open Code and Open Society’,
Tutzing, Germany, 1 June, 2000; http://cyberlaw.stanford.edu/lessig/content, Stanford Law School. (B), (última visita, Octubre
2003). Lessig, Lawrence: ‘The future of the ideas:
the fate of the commons in a connected world’, Random House, 352,
2001, USA. Lessig, Lawrence; ‘Introduction’, en ‘Free Software, Free Society, Selected
Essays of Richard M. Stallman’, GNU Press (FSF), Boston, MA, 2002
(A), páginas 9-11. Lessig, Lawrence: ‘Free Culture: Lawrence Lessig Keynotes form OSCOM 2002’,
2002 (B), O’Reilly and Associates, http://www.oreillynet.com/pub/a/policy/2002/08/15/lessig.html, (última visita Noviembre 2003). Lessig, Lawrence: ‘Governance’, en The COOK
Report on Internet, en el volumen XI, número 12, de Marzo de 2003; paginas 34-39; http://www.lessig.org/content/archives/march2003cookrep.pdf (última visita, Noviembre
2003). Lessig, Lawrence; ‘An Information Society:
Free or Feudal?’, en The COOK Report on Internet, vol. XII, N°13, Julio-Septiembre
de 2003; páginas 102-104; http://www.lessig.org/content/archives/apriljune2003cookrep.pdf,
(última visita, Noviembre 2003). Levy, Steven; ‘A Net of Control: Unthinkable:
How the Internet could become a tool of corporate and government power,
based on updates now in the works’; en Revista Newsweek Noviembre
de 2003, http://msnbc.msn.com/Default.aspx?id=3606168&p1=0,
(última visita, Noviembre 2003). López
Cerezo, José Antonio; ‘Ciencia, Tecnología
y Sociedad: el estado de la cuestión en Europa y Estados Unidos’,
revista Iberoamericana de Educación, 1998,
http://www.campus-oei.org/revista/frame_anteriores.htm,
(última visita, Noviembre 2002). Luhmann,
Niklas; ‘Sociología del Riesgo’.
Triana, México DF, México, 1998. Luhmann,
Niklas; “Ilustración Sociológica
y otros ensayos”; Sur, Buenos Aires, Argentina, 1973. Luhmann,
Niklas; “Observaciones de la Modernidad”;
Paidos, Barcelona, España, 1997. Luhmann,
Niklas; “Sistemas Sociales. Lineamientos
para una teoría general”; Anthropos, Barcelona, España, 1998. Luhmann,
Niklas; “Poder”; Anthropos, Barcelona,
España, 1995. Maldonado,
Tomas: ‘Lo real y lo virtual’,
Gedisa, Barcelona, España, 1999. Marx, Karl; ‘Crítica de la Filosofía del
Estado de Hegel’; Grijalbo, México DF, México, 1968. Mattelart,
Armand: “Historia de la sociedad de la información”; Paidos, Buenos Aires, Argentina,
2002. Maturana,
H y Varela, F; “El árbol del conocimiento.
Las bases biológicas del conocimiento humano”; Debate S.A., Madrid,
España, 1999. McLuhan, Marshall; ‘Guerra y Paz en la Aldea
Global’, Planeta-Agostini, Barcelona, España, 1985. Mitchell, William; ‘City
of Bits: Space, Place and Infobahn’, Cambridge, MIT Press, 1995, USA. También en el sitio de Internet:
http://mitpress2.mit.edu/e-books/City_of_Bits/index.html, (última visita, Octubre
de 2003). Negroponte, Nicholas; ‘Ser Digital’. Atlántida,
Buenos Aires, Argentina, 1995. Network Working Group;
‘Architectural Principles of the Internet’, Request for Comments (RFC):
1958 del Internet Architecture Board (IAB), Junio de 1996, http://www.ietf.org/rfc/rfc1958.txt,
(última visita, Octubre de 2003). Network Working Group;
‘Requirements
for Internet Hosts -- Communication Layers’, Request for Comments (RFC): 1122, del Internet Engineering Task Force (IETF) de Octubre de
1989; http://www.ietf.org/rfc/rfc1122.txt,
(última visita, Octubre de 2003). Nietzsche, Friedrich; ‘Crepúsculo de los Ídolos
o como se filosofa con el Martillo’. Alianza Editorial, Madrid, España,
1998. Nietzsche, Friedrich; ‘El Anticristo. Una maldición
sobre el cristianismo’, Alba, Madrid, España, 1996. Nietzsche, Friedrich; ‘Así habló Zarathustra’; Planeta-Agostini,
Barcelona, España, 1992. Nietzsche, Friedrich; “La genealogía de la moral”;
Alianza Editorial, Buenos Aires, Argentina, 1995. Nino,
Carlos Santiago: “Introducción al
análisis del derecho”; Astrea, Buenos Aires, Argentina, 1987. Olson,
David; ‘El mundo sobre el papel: el impacto de la escritura y la lectura en la
estructura del conocimiento’; Gedisa, Barcelona, España, 1998. Ong,
Walter; ‘Oralidad y escritura: tecnología de la palabra’, Fondo de Cultura económica,
México DF, México, 1997. Oram, Andy (Compilador);
‘Peer-to-Peer: Harnessing the Power of Disruptive Technologies’; O’Reilly
and Associates, USA, 2001. Orwell,
George; ‘1984’; Destino, Barcelona, España, 1994. Piscitelli,
Alejandro; “Ciberculturas: en la
era de las máquinas Inteligentes”; Buenos Aires, Argentina, Paidós,
1995. Piscitelli,
Alejandro; “Postelevisión: ecología
de los medios en la era de Internet”, Buenos Aires, Argentina, Paidós,
1998. Piscitelli, Alejandro; “Meta-Cultura: El eclipse de los medios masivos
en la era de Internet”; La Crujía, Buenos Aires, Argentina, 2002. Quintanilla,
Miguel Ángel: ‘Tecnología: Un enfoque
filosófico’ Colección Ciencia y Tecnología, Eudeba, Buenos Aires,
Argentina, 1991. Reed, David P; Saltzer, Jerome H; y Clark, David D; ‘Active Networking and End-To-End
Arguments’, última actualización Mayo de 1998, http://web.mit.edu/Saltzer/www/publications/endtoend/ANe2ecomment.html,
(última visita, Octubre de
2003). Raymond, Eric Steven; ‘The
Cathedral and the Bazaar’ Musings on Linux and Open Source by an Accidental
Revolutionary’; O’Reilly and Associates, 2001, USA. Raymond, Eric Steven; ‘The
Art of UNIX Programming’ Addison Wesley Pub Co., 2003, USA. Rifkin,
Jeremy; “El fin del trabajo: nuevas
tecnologías contra puestos de trabajo: el nacimiento de una nueva
era”; Paidos, Buenos Aires, Argentina, 1999. Rifkin,
Jeremy; ‘El siglo de la Biotecnología’;
Crítica-Marcombo, Barcelona, España, 1999. Rifkin,
Jeremy; “La era del acceso: la
revolución de la nueva economía”, Paidos, Buenos Aires, Argentina,
2000. Rodotá,
Stéfano; ‘Tecnopolítica’; Losada,
Buenos Aires, Argentina, 1999. Saltzer, Jerome; Reed, David; Clark, David; ‘End-To-End Argument
in System Design’ Laboratorio para la Ciencia de la Computación del
Instituto de Tecnología de Massachussets y Software Art Inc, Massachussets,
1981 http://web.mit.edu/Saltzer/www/publications/endtoend/endtoend.pdf
(última visita, Octubre 2003). Sartori,
Giovanni; ‘Homo Videns: La Sociedad Teledirigida’, Taurus, Madrid, España, 1998. Schuster,
Felix; ‘Consecuencias metodológicas
del contexto de aplicación’ en la Revista Redes, N°4, Quilmes, Argentina,
1995. Schuster,
Felix; ‘El método en las ciencias
sociales’ Editores de América Latina, Buenos Aires, Argentina, 1997. Schuster,
Felix: “Los laberintos de la contextualización en ciencia”, en Althabe, G. y
Schuster, F. G. (comp.) Antropología del presente, Edicial, Buenos
Aires, Argentina, 1999. Shapiro, Andrew; ‘The
Control Revolution: How the Internet is Putting Individuals in Charge
and Changing the World We Know’; Public Affairs, New York, USA, 1999. Simone,
Raffaele; ‘ La tercera fase: las formas de saber que estamos perdiendo’; Taurus, Madrid,
España, 2001. Singh,
Simon; ‘Los códigos secretos: el arte y la ciencias de la criptografía, desde el
antiguo Egipto a la era de Internet’; Debate, Barcelona, Espala, 2000. Sloterdijk,
Peter; ‘El pensador en escena; El materialismo de Nietzsche’ Pre-textos, Valencia,
España, 2000. Solum,
Lawrence y Minn Chung; ‘The
layer principle: Internet architecture and the Law’, en Social Science
Research Network (SSRN), http://ssrn.com/abstract=416263 electronic library,
Junio de 2003, (última visita, Noviembre de
2003). Stallman, Richard M; ‘Copyright
and Globalization in the Age of Computer Networks’ http://web.mit.edu/comm-forum/forums/copyright.html,
conferencia dictada en el Massachusetts Institute of Technology (MIT)
en Cambridge, Massachusetts el día 19 Abril de 2001, (última visita, Agosto 2003). Stallman, Richard M; ‘Free
Software, Free Society: Selected Essay of Richard M. Stallman’; GNU
Press (FSF), Boston, MA, USA, 2002. Strong, William S.: ‘El
libro de los derechos de autor: guía práctica’; Editorial Heliasta,
Buenos Aires, 1995. Sunstein, Cass; ‘República.com;
Internet, democracia y libertad’; Paidos, Barcelona, España, 2003. Swartz, Aarón; ‘The
Semantic Web in Breadth’ (2002) URL del documento: http://logicerror.com/semanticWeb-long,
modificado por última vez en mayo de 2002, (última visita, Junio 2003). Torvalds, Linus; ‘Interview
with Linus, the Author of Linux’; entrevista realizada por Robert
Young; http://www.linuxjournal.com/article.php?sid=2736;
Marzo de 1994; (última visita, Agosto de 2003). Tropeano,
Francisco: ‘Introducción al procesamiento y transmisión de datos’. Alsina Editorial,
Buenos Aires, Argentina, 2003. Turkle,
Sherry; ‘La vida en la pantalla.
La construcción de la identidad en la era de Internet’. Paidós, Barcelona, España,
1997. Vaidhyanathan, Siva; ‘Copyrights and Copywrongs:
The Rise of Intellectual Property and how it Threatens Creativity’
New York University Press, USA, 2001. Vaidhyanathan,
Siva; ‘Siva Vaidhyanathan On Copyrights
and Wrongs’ http://interviews.slashdot.org/interviews/02/05/15/166220.shtml?tid=103, del 15 de mayo de 2002,
(última visita, Noviembre de 2003). Vaidhyanathan,
Siva; ‘The new information ecosystem: Parte 1: Cultures of anarchy and closure’,
del 26 de junio de 2003; Parte 2: ‘Pro-gumbo: culture as anarchy’, del 10 de julio de 2003; Parte
3: ‘The anarchy and oligarchy of science’
del 24 de julio de 2003; Parte 4: ‘The nation-state vs. Networks’
del 28 de agosto de 2003; Parte 5: Networks of power and freedom’
del 16 de octubre de 2003, http://www.opendemocracy.net/debates/article.jsp?id=8&debateId=101&articleId=1319, (última
visita, Diciembre 2003). Van Alstine, Marshall y Brynjolfsson, Erik; ‘Electronic
Communities: Global Village or Cyberbalkans?’ 1996,
http://web.mit.edu/marshall/www/papers/CyberBalkans.pdf,
(última visita, Diciembre 2002). Vattimo,
Gianni; “La sociedad transparente”;
Paidos, Barcelona, España, 1996. Vercelli,
Ariel; ‘Las regulaciones y el desarrollo en la sociedad de la información: aportes
para un nuevo enfoque sobre las regulaciones.’ diciembre de 2002,
Centro de Excelencia para la Región Américas e INICTEL del Perú: http://dc.inictel.gob.pe/regulacion/actividad.htm;
(última visita, Octubre 2003). Vercelli,
Ariel; ‘Creative Commons y la profundidad del copyright’, Revista Enredando, http://enredando.com/cas/cgi-bin/enredantes/plantilla.pl?ident=247,
publicado el 07/01/2003; Barcelona, España. También en ‘Creative Commons’,
http://creativecommons.org/press/entry/3569
enero de 2003 (A), USA; (última visita, Octubre 2003). Vercelli,
Ariel; ‘Ad usum: algunos derechos en problemas: ILAW Program
2003 del Berkman Center de Harvard’. 2 de abril de 2003 (B), Buenos
Aires, Argentina en INFOLEG, Ministerio de Economía de la República
Argentina: http://infoleg.mecon.gov.ar/basehome/noticias/vercelli-1.htm;
también en la revista Enredando, 22 de abril, Barcelona, España: http://www.enredando.com/cas/enredantes/enredantes186.html;
(última visita, Octubre 2003). Vercelli,
Ariel; ‘La ICANN y los Root Nameservers
de Internet’, Interlink Headline News, editoriales N°
3096, 3070 y 3071 del 26, 27 y 28 de Junio de 2003 (C), Buenos Aires,
Argentina: http://ilhn.com/ediciones/3069.html;
http://ilhn.com/ediciones/3070.html;
http://ilhn.com/ediciones/3071.html;
(última visita, Noviembre 2003). Vernant,
Jean Pierre; ‘Los Orígenes del Pensamiento
Griego’ Editorial Universitaria de Buenos Aires, Buenos Aires, Argentina,
1992. Vernengo,
Roberto José: “Teoría General del Derecho”.
Depalma, Buenos Aires, Argentina, 1985. Villalba,
Carlos y Lipszyc, Delia; ‘El derecho de Autor en la Argentina’; La Ley, Buenos Aires, Argentina,
2001. Villate,
Javier; ‘La propiedad intelectual en la nueva era digital’; 2001, OCS, http://cibersociedad.rediris.es/archivo/articulo.php?art=40
(última vista, Marzo 2003). Virilio,
Paul; “El Cibermundo, la política
de lo peor”. Ediciones Cátedra, Madrid, España, 1997. Wayner,
Peter: “La ofensiva del software libre”; Granica, Barcelona, España, 2001. Weber,
Max; “Ensayo sobre metodología
sociológica”; Amorrortu editores, Buenos Aires, Argentina, 1973. Weber,
Max; “Economía y Sociedad”;
Fondo de Cultura Económica, México
DF, México, 1999. Weber,
Max; “Ensayos sobre sociología
de la religión” (1y2); Taurus, Madrid, España, 1998. Whitaker,
Reg; ‘El fin de la privacidad’;
Paidós, Barcelona, España, 1999. Wiener,
Norbert: ‘Cibernética o el control y la comunicación en animales y máquinas’, Tusquest,
Barcelona, España, 1998. Williams, Sam; ‘Free
as in Freedom: Richard Stallman’s Crusade for Free Software’; O’Reilly
and Associates, USA, 2002. Winner,
Langdon:‘¿Tienen política los
artefactos? http://www.campus-oei.org/salactsi/winner.htm; Publicación original: "Do
Artifacts Have Politics?" (1983),
en: D. MacKenzie et al. (eds.), The Social
Shaping of Technology, Philadelphia: Open University Press, 1985.
Versión castellana de Mario Francisco Villa; (última
visita, Julio 2002). Winner,
Langdon: ‘Los Mitos Ciberlibertarios
y sus Prospectos para la Comunidad’; http://contexto-educativo.com.ar/2000/2/nota-1.htm,
‘Revista Digital de Educación y Nuevas Tecnologías’, Número 4, Febrero
de 2000; (última visita, Julio 2002).
[1]
Muchas son las disciplinas que están involucradas en el campo de
las regulaciones en Internet. En este punto remito al lector a ver
el punto 2 del apartado D en esta misma Introducción (‘Nivel de
análisis de la investigación’).
[2]
Esta investigación requirió no solo el diseño de una
metodología de investigación acorde al objeto de estudio, sino también
el diseño y desarrollo de una estrategia de inmersión, capacitación,
análisis y posterior separación del nuevo entorno electrónico. Esta
inmersión llevó años de trabajo y fue, tal vez, el punto más difícil
de la presente estrategia metodológica. En Internet, a diferencia
de lo que comúnmente suele decirse, “no todos los que buscan encuentran”.
Aunque no es este el lugar donde debemos reflejar todas las técnicas
que están indirectamente vinculadas a esta investigación, estas
se hacen conscientes al momento de escribir esta parte metodológica.
Sería muy difícil explicitar, en este espacio limitado, todas las
incumbencias de una incipiente profesión de “explorador de Internet”.
Por ello, solo quiero dejar constancia que en ningún momento paso
por alto la gran cantidad de rutinas, astucias, deformaciones, preconceptos,
configuraciones, posturas, selecciones informacionales y demás tics,
que tienen “incorporados” todos los usuario, y más aún, los investigadores
de Internet. Sin dudas, muchas de estas “incorporaciones” también
forman parte de los dispositivos menos evidentes que componen la
caja de herramientas del explorador del ciberespacio.
[3]
El investigador que analiza y explora un objeto de estudio
que se encuentra en Internet, por las características mismas del
medio, tiene que poder administrar, seleccionar y clasificar grandes
cantidades de información. Al momento de iniciar una investigación
sobre Internet, el investigador siente la falta de una metodología
seria, completa, sistemática, para los trabajos exploratorios en
el ciberespacio. El gran crecimiento de Internet, muchas veces visible
en pocas semanas, e indudablemente en meses de trabajo de campo,
dificulta el trabajo de exploración y presenta al investigador la
sensación de un universo inabarcable. Por ello, nunca más cierto
que sin una buena delimitación del objeto de estudio el investigador
se encontrará perdido en pocas semanas y atrapado en una infoxicación
peligrosa que le hará perder meses y tal vez años de trabajo.
[4]
Esta apertura en el diseño caracteriza la presente investigación.
Para el investigador que utiliza técnicas abiertas, el principio
de oportunidad es tan importante como la pertinencia de la información
al objeto de estudio. Las técnicas abiertas de exploración permiten
el abordaje de casos tan dinámicos y novedosos como la regulación-autorregulación
de Internet. Esta metodología facilitó cierto grado de improvisación
al momento del trabajo de campo, lo que, a su vez, permitió conseguir
información a tiempo, en momentos donde el acceso formal a la misma
hubiera sido imposible.
[5]
En este punto debo agradecer tanto a Maristella Svampa
como a Judith Filc quienes, en el marco del taller de tesis realizado
en FLACSO, me han recomendado la búsqueda de un caso concreto donde
poder visualizar mejor las tendencias que iban marcando mis estudios
preliminares sobre el campo.
[6]
Si bien conocí los pasos iniciales de Creative Commons desde
hace al menos tres años, no fue hasta su lanzamiento en diciembre
de 2002 que pude vislumbrar que se trataba de un caso ajustado a
las hipótesis preliminares que venía manejando. En este sentido,
el temprano trabajo exploratorio sobre el campo dio un buen resultado.
Más que una selección de caso estuve frente a la certidumbre del
camino correcto. En pocas palabras, el caso Creative Commons
me encontró como investigador. Sin embargo, esto no fue evidente
hasta que pude materializar en algunos artículos, específicamente,
‘Creative Commons y la profundidad del Copyright’ (2003),
las notas salientes de este trabajo exploratorio inicial. Originalmente
este artículo, escrito a raíz del lanzamiento de Creative Commons,
fue publicado en un weblog argentino, luego en una revista digital
catalana y posteriormente reseñado y compartido por la misma gente
de Creative Commons. Luego de los primeros pasos exploratorios
exitosos, la publicación de este artículo formó también parte de
la selección que el caso hizo sobre el investigador.
[7]
El primero lo realice sobre ‘Regulación de nuevos servicios
y aplicaciones IP’, con representantes de la ITU durante tres meses
a finales del año 2002, mediante una beca de la AICD/OEA. El segundo
curso de capacitación a distancia fue posible gracias a una beca
del ‘Berkman Center for Internet and Society’ de la Universidad
de Harvard, para el ‘ILAW Program 2003’.
[8]
Tuve oportunidad de ser parte de la organización de la
segunda Edición del Global Community Networks que se realizó
en la Argentina en el 2001. También participé como becario en la
tercera edición del Global Community Networks en Montreal
en el 2002.
[9]
El Instituto de Investigaciones
Gino Germani de la Universidad de Buenos Aires, en el Centro de
Estudios e Investigaciones en Derechos Humanos de la Universidad
Nacional de Rosario, y en el ámbito del Taller de Informática, Telemática
y Procesamiento de Datos de la Carrera de Comunicación de la Universidad
de Buenos Aires.
[10]
Podemos encontrar tantas y tan variadas regulaciones como divisiones
del mundo existan, por tanto, cualquier clasificación al respecto
resultaría incompleta. Preferimos dividir las regulaciones, al igual
que ‘cierta enciclopedia china’ citada por Borges -‘Emporio celestial
de conocimientos benévolos’ (Borges, 1974: 708)-, entre las que
pertenecen a los emperadores, las regulaciones fabulosas, las de
derechos de autor, aquellas que se agitan como locas, aquellas que
hacen reír, aquellas ante las puertas de la ley, y finalmente, aquellas
regulaciones que de lejos parecen monstruos gélidos.
[11]
Ciertas regulaciones
son visibles y ruidosas, mientras que otras son silenciosas e imperceptibles.
Algunas pueden presentarse como artefactos, mientras que otras son
llamadas naturales.
[12]
Tenemos una ceguera constitutiva en relación a la proliferación
de máquinas, híbridos y mediaciones técnico políticas. Michel Callon
(1998) entiende que aún no hemos desarrollado el marco conceptual
para volver evidente nuestra condición sociotécnica. La palpable
proliferación de híbridos, siguiendo a Bruno Latour (1994), denota
la emergencia de nuevas formas de lo social. Hasta el momento hemos
negado nuestra condición sociotécnica mediante la ocultación de
la proliferación de híbridos con los que interactuamos y conformamos
desde hace siglos redes transtemporales de infinitas mediaciones,
delegaciones y traducciones del mundo.
[13]
A diferencia de otros medios como la radio, la televisión,
el teléfono o bien un libro, Internet es el primer medio en la historia
de la humanidad que permite interactividad, en tiempo real, sin
importar la ubicación de emisores y receptores. Las arquitecturas
P2P (par a par - peer to peer, en inglés) poseen una estructura
donde cualquiera de los nodos, puntos, o pares de una red puede
ser indistintamente proveedor o requirente en un intercambio de
información. El concepto P2P engloba los proyectos desarrollados
para potenciar esta característica fundante de Internet: los mismos
permiten compartir tiempo de computación común, archivos de información,
software o bien cualquier otro tipo de recursos de la red.
[14]
Asociación de Industrias Grabadoras Americanas (Recording
Industry Association of America); para más información visitar:
http://www.riaa.com/
[15]
Napster es el nombre de un software masivo que se
transformó en el 1999 en el primer servicio de intercambio de archivos
(especialmente de MP3) basado en una arquitectura par a par (P2P).
A pesar de su arquitectura P2P, la aplicación que permitía el intercambio
de archivos por la red funcionaba mediante una base de datos centralizada.
Esto generó la persecución legal y finalmente su cierre en 2001.
Aunque con un final incierto, Bertelsmann AG compro Napster en el
año 2002, http://www.napster.com.
Napster cambió radicalmente las formas en que podemos pensar y proyectar
las interacciones con los actuales sistemas de derechos de autor
a nivel mundial.
[16]
En algunos apartados del trabajo utilizamos abreviaturas
para facilitar la lectura y comprensión de algunas construcciones
conceptuales del marco teórico.
[17]
En el presente trabajo analizamos lo humano y lo tecnológico, como
gusta decir Latour, desde un criterio dinámico y no-esencialista.
La tecnología sigue siendo analizada,
desafortunadamente, como un objeto externo a un sujeto creador
sin mediación pasada, presente o futura. Por tanto, en mi análisis,
tendré más en cuenta las mediaciones técnicas que los emergentes
objetuales tecnológicos a los que confusamente se los hace interactuar
con los actores clásicos de las ciencias sociales. La definición
de actor clásico en las disciplinas sociales modernas solo incluye
actores-humanos individuales -o colectivos- dentro de la acción
político-social, dejando fuera de toda posibilidad de intervención
político-social a los actantes-no-humanos. De allí su invisibilidad,
como afirma Latour (2001), fundada en una clasificación disciplinar
excluyente por dentro de las mismas ciencias.
[18]
En este sentido, las regulaciones esconden cierta
idea, extraña y vital, de perfectibilidad socio-técnica. Esta perfección
perseguida como modelo ideal pretende sustituir la realidad. Esta
tendencia pretende cumplimentar el proyecto racionalista moderno
de lograr sociedades perfectibles. ¿Será el diseño tecnológico de
nuestro entorno el mas moderno de los disfraces que sublima la angustia
del sofisticado nihilismo de nuestro tiempo? Según la genealogía moral
nietzscheana, el hombre prefiere creer en nadas a no creer (1995;
186).
[19]
Las sociedades manifiestamente preocupadas por la
evitación del riesgo son, como bien afirma Luhmann (1998), sociedades
obsesionadas con el control. La obsesión por la evitación del riesgo
parece caracterizar nuestras sociedades, donde el riesgo se vive
como algo inminente, potencial, omnipresente. En su trabajo ‘Las
leyes del ciberespacio’ (1998), Lessig señalaba claramente su temor
sobre la posibilidad de que Estados Unidos se convierta en una nación
exportadora de control. Según Lessig, “... los Estados Unidos dejarían
de ser un símbolo de la libertad para convertirse en un vendedor
ambulante de control” (Lessig; 1998).
[20]
Las tecnologías de vigilancia vuelven transparentes nuestras vidas.
La evolución de los sistemas de control inteligentes, tanto dentro
de Internet como fuera de ella, ha vuelto la vigilancia cada vez
más densa, constante y ubicua. La
vigilancia se ha vuelto multi-sensorial y depende de un procesamiento
de la información totalmente ajeno a los actores-humanos. En este
sentido, los ‘data profiles’ etiquetan a los sujetos según niveles
de riesgo y esta administración de información está ampliamente
fuera de nuestro alcance. Para Reg Whitaker (1999; 11) este es un
rasgo típico de la incipiente y peligrosa selección informacional
de nuestras sociedades.
[21]
Según Latour, “la
tecnología es la sociedad hecha para que dure a través del tiempo”
(Latour, 109; en Doménech y Tirado –comp- 1998). Llamamos tecnología a las situaciones
donde los ensamblajes sociales ganan estabilidad alineando actores-humanos
y actantes-no-humanos bajo condiciones de laboratorio. Sin embargo,
la estabilidad se diferencia claramente
de la irreversibilidad y de la dominación, las que dependen de la
solidificación arquitectónica de nuestro entorno sociotécnico.
[22]
Plantear el rol que las mediaciones técnicas tienen
en un mundo que comienza verse como un proceso de irreversibilidad
tecnológica, significa volver sobre los pasos –modernos- para intentar
comprender como la tecnología funciona simultáneamente como posibilidad
de acción y como dispositivo de control de esta actividad.
[23]
Para John Law este proceso forma parte de la construcción
de un control social a distancia, un tipo de política alternativa
ejercida por medios científicos (Law, 73; en Doménech y Tirado –comp-
1998). Este proceso posibilita la superación de las escalas a través
de redes de actantes-no humanos que se transforman en materiales
móviles para hacer posible el control social a distancia y a través
del tiempo. Es necesario pensar estas movilizaciones como traducciones
de formas y materias hacia diferentes escalas, espacios y tiempos.
Esta es una de las mediaciones técnicas fundamentales para el ejercicio
del poder a distancia (Law, 81-88; en Doménech y Tirado –comp- 1998).
[24]
Para que el control a distancia pueda darse, todas
la interfaces deben tender hacia una estandarización. La estandarización
busca establecer reglas mínimas de comunicación y coordinación en
una red a través de MTR. Paradójicamente, estas reglas estandarizadas
son a un mismo tiempo las formas de administración que permiten
un funcionamiento mínimo y las normas obligatorias que crean las
desviaciones al momento que también las controlan. Afirma Callon
(1998) que cuando una red se vuelve irreversible ya es una red que
esta sujeta a normas de todo tipo, puesto que trabaja sobre sistemas
codificados de información. Mientras más cadenas de asociaciones
e intermediaciones tenga un actor, mientras más cajanegrizados se
encuentre, más firme, coherente y estable será su rol para poder
lograr una actuación predecible. En este sentido, el
costo de plantear alternativas a estas redes altamente estandarizadas-codificadas
resulta prohibitivo (Latour y Woolgar, 1995; 271-2).
[25]
La entornización se vincula a la producción de todo
tipo de artefactos con los que interactuamos a diario. Sin embargo,
hace unos años el concepto se ha extendido también a las instalaciones
multimediales en las que artistas y cientistas combinan formas,
materias y tecnologías para configurar el espacio-tiempo.
[26]
El concepto de diseño de entornos deriva también, luego de varios
siglos de capitalismo industrial, del necesario cuidado del medio
ambiente. Como veremos en el capítulo 3, el
tratamiento que platea James Boyle a los derechos de autor tiene
varios puntos de contacto con las problemáticas ecológicas propiamente
dichas (complejas, frágiles, y de impredecibles interconexiones
con los sistema de la vida).
[27]
El laboratorio es un sistema de inscripción-traducción
donde se convence a terceros que la resultante del entorno no ha
sido construida socialmente, ni posee una historia de construcción
(Latour y Woolgar, 1995; 119). Es imposible verificar un enunciado-hecho
fuera del laboratorio pues su misma existencia depende del micro-contexto
del laboratorio donde se produjeron. Lo externo y la resultante
de la actividad del laboratorio se corresponden por la sencilla
razón de que son la misma cosa, provienen de la misma fuente (Latour
y Woolgar, 1995; 206). En el laboratorio se convence a diferentes
actores de la existencia de hechos concretos mediante la eliminación
de las circunstancias históricas y sociológicas de las que depende
la construcción del hecho. El hecho construido a través de un laboratorio
aparecerá naturalizado, preexistente, real, fuera del tiempo y del
espacio en donde fue construido, ensamblado, producido.
[28]
La ecología informacional en la evolución de Internet tiende a ser
tratada como una especie de aquello que Foucault llamaba biopolítica
de la especie humana. Una política basada en tácticas con fines
específicos, y orientada directamente sobre la población y no hacia
los ciudadanos como objeto de regulación. (Foucault, 1991, 17).
[29]
Internet nació con
una historia peculiar. Su diseño originario deshabilitó, en parte,
el control centralizado y promovió un espacio de libertad común
que incentivo la innovación y la conectividad alternativa (ver capítulo
2). El desarrollo de Internet generó modelos que activaron nuevas
arquitecturas y deshabilitaron formas clásicas de control centralizado.
Sin dudas, estas características han sido decisivas para la modificación
del campo de las clásicas regulaciones y para la abrupta emergencia
de nuevas formas regulativas en Internet.
[30]
El derecho a la intimidad está siendo olvidado por
las políticas comerciales más elementales de la red. Muchos modelos
de negocios a nivel comercial están anclados en la necesidad de
violentar este esencial derecho democrático y los estados no son
ajenos a estas prácticas. La unión entre la mediación del comercio
y la anuencia de los estados, según Lessig (1999), edificará una
arquitectura que perfeccionará el control y posibilitará regulaciones
altamente eficientes. Sin embargo, lo hará con un costo altísimo
para los intereses comunes, la democracia y algunas libertades esenciales
para nuestras sociedades.
[31]
El campo de las regulaciones estuvo históricamente
gobernado -y en parte aún lo está- por la nociones jurídicas. A
decir verdad, esta concepción notoriamente apegada al legado del
derecho moderno como forma regulativa, se encuentra en una etapa
de metamorfosis. El derecho funcionó históricamente dentro de las
competencias geográficas del estado nación moderno. Sin embargo,
Internet es una arquitectura distribuida, sin centro, que emergió
como un nuevo espacio sin competencias geográficas. La regulación
de Internet escapa a la retrospectiva lógica jurídica de la modernidad,
aquella que, como afirmaba Hegel (1955), se mantiene siempre a la
espera del Búho de Minerva.
[32]
El término cibernética fue desarrollado en 1948 por
Norbert Wiener: ‘Cybernetics, or control and communication in the
animal and machine’ (Cibernética, o El control y comunicación
en animales y máquinas). La cibernética se compone de las relaciones
de retroalimentación evolutivas que se producen entre máquinas,
ordenadores y humanos. La noción de cibernética remite, en sentido
amplio, a las formas control, pero también a las nociones de gobierno
y a la proliferación de híbridos. La cibernética es en si misma
una caja negra en el sentido de Latour. Tal como afirma Lessig (1998)
la cibernética persigue un fin claro y este es la regulación perfecta,
las mejores formas de dirigir.
[33]
En la fascinante novela de William Gibson “Neuromante”
(1984), aparece una proyección anticipada del concepto de ciberespacio:
“El ciberespacio. Una alucinación consensual experimentada diariamente
por billones de legítimos operadores de todas las naciones. ...
Una representación gráfica de la información abstraída de los bancos
de todos los ordenadores del sistema humano. Una complejidad inimaginable.
Líneas de luz clasificadas en el no-espacio de la mente, conglomerados
y constelaciones de información, como las luces de una ciudad que
se aleja” (Gibson, 1989; 69).
[34]
Básicamente se discuten cuales son los modelos,
tecnologías y usos que favorecen la libertad y la diversidad cultural
en contraposición a modelos que activan una selección informacional
homogénea y asfixiante. Por un lado aparecen las regulaciones, modelos,
tecnologías y usos que posibilitan sociedades abiertas, libres y
democráticas. Por el otro, encontramos dispositivos e intereses
que posibilitan una clausura de los espacios comunes y un incremento
jamás visto de las tecnologías de control que habilitan sociedades
de control y vigilancia.
[35]
El gobierno de las conductas logró su primer sistematización
mediante el paso de una cultura oral hacia una cultura escrita.
El pasaje de una sociedad basada en la oralidad a otra basada en
la escritura, siguiendo a Walter Ong (1997), implicó cambios radicales
para las formas de regulación. La técnica escritura enfrentó, según
Olson (1998), los registros externos a la subjetividad. La escritura
transformó la ley en una referencia objetiva y lugar de verdad por
excelencia, y contribuyó a generar un espacio privado-público. A decir verdad, la gran sistematización, generadora de infinitas codificaciones,
fue la creación del alfabeto. El alfabeto ha sido la referencia fundamental para la proyección y desarrollo
de códigos a lo largo de la historia. La tecnología imprenta es
la que inicia otro proceso que permitió, entre otras cosas, la seriación,
la alfabetización, la mercantilización de las ideas, los derechos de autor-editor
(copyright), la
estructuración del conocimiento racional moderno, el estado nación,
las burocracias y las extensas codificaciones jurídicas.
[36]
Esta ha sido justamente una de las primeras hipótesis
que guió el trabajo exploratorio inicial. Sin embargo, la tensión
entre el derecho y la tecnología, no logra captar cuales son los
emergentes actuales en el campo de las regulaciones. Mas que enfrentarse,
parecen entrar en una larga, prolífica y peligrosa negociación que
mostramos en los capítulos siguientes.
[37]
Sepa el lector que esta selección de los reguladores es arbitraria,
incompleta, y requiere de un análisis de mayor profundidad. Sin
embargo, a los fines del presente trabajo, entiendo que es suficiente
para analizar el nuevo emergente en el campo de las regulaciones
de Internet.
[38]
Por costumbre entiendo, siguiendo a Weber (1999), la conducta que
ya es típicamente regular gracias únicamente a su carácter usual,
y a la imitación irreflexiva, cuya prosecución nadie exige al individuo
en ningún sentido. Sin embargo, tanto la costumbre como las normas
sociales, están reguladas a través de la aprobación o desaprobación
de un círculo humano que forma el mundo circundante específico.
[39]
No existen mercados sin regulaciones que puedan establecer
las pautas mínimas de tráfico, intercambio y lucro dentro de una
economía capitalista. Más que analizar este regulador específicamente,
estoy interesado en ver como este regulador se articula con la sistematicidad
legal, las normas sociales y el código como emergente más importante
en la regulación del ciberespacio. Los graves problemas regulatorios
actuales se basan en el advenimiento de la red como un espacio de
tráfico comercial.
[40]
La mayoría de las veces utilizo la acepción que refiere
a la arquitectura de las redes, pero en realidad, el concepto de
arquitectura refiere genéricamente a los tres aspectos antes mencionados.
[41]
La irónica formula nietzscheana de la felicidad moderna sintetiza
este modo de ser de la modernidad. A saber: “formula de nuestra
felicidad moderna: un si, un no, una línea recta, una meta” (Nietzsche,
1996; 21).
[42]
Las codificaciones legales modernas fueron cuerpos de leyes impresas
bajo una sistematicidad y métodos rigurosos, las que en su mayoría
estaban divididas por disciplinas y ramas del derecho. Con posterioridad
se llamó codificación a la concentración de una rama o temática
dentro de una ley. La codificación moderna más conocida fue el Código
Civil Francés o Código de Napoleón de 1804, que contenía varios
miles de artículos.
[43]
Esta construcción necesitó de arquitectos que dieran
fundamento a la obra. Nunca existió un
derecho formal, más o menos desarrollado, sin la presencia y colaboración
de jurisperitos (Weber; 1999: 531).
[44]
El estado tiene, según Max
Weber, el monopolio legítimo de la violencia física sobre los ciudadanos.
A este monopolio hay que agregar que el estado, a través de sus
instituciones, detenta también el monopolio de la violencia simbólica.
Las leyes son uno de los mejores ejemplos de este tipo particular
de poder.
[45]
Como bien afirma Bourdieu (2000) el grado de sistematicidad
y de codificación de las conductas y espacios varía según el grado
de riesgo que se perciba sobre ellas. ¿Existirá realmente ese encanto
loco de las sociedades poco codificadas del que hablaba Bourdieu
(1993: 87)?
[46]
La tendencia obsesiva de sistematizar aquello que debía-ser sublimó
paulatinamente la justicia material del caso concreto El derecho
mutó desde resolver la verdad sobre casos concretos a una concepción
legislativa, en la que se cristalizaban -a través de reglas escritas-
todos los casos posibles para la resolución futura de conflictos.
El positivismo jurídico significó para la historia del derecho aquel
empuje final hacia la pureza técnica ficcional del derecho.
[47]
La de-codificación del derecho muestra que solo la
abstracción interpretativa salva la coherencia de la red interminable
de decisiones que involucra a los constructores, aplicadores, y
ejecutores del derecho. Su labor ejecutora-interpretativa fundada
en analogías hace posible la labor sistemática que consiste en codificar
y optimizar, con ayuda de la lógica, las reglas jurídicas abstractas.
[48]
En este sentido, dirá Hegel que cuando la ciencia
nocturna pinta el claroscuro, ya un aspecto de la vida ha envejecido
y solo resta el reconocimiento (Hegel, 1955, 36). El derecho alcanza a sujetar
la realidad, logra reconocerla, torcerla, pero afortunadamente no
puede privarla de sus infinitas formas, colores y texturas. ¿Cómo llegar antes que el hecho este consumado? El
crimen es perfecto, puesto que nunca tenemos posibilidad de llegar
a el. Tal vez haya sido Philip K Dick el que mejor anticipó los
modelos penales ficcionales, las guerras preventivas y la arritmia
que caracteriza nuestro tiempo. ¿Será ese el futuro de nuestras
sociedades: un juego obsesivo, paranoico, por la evitación del riesgo
dentro de sociedades de complejidad creciente?
[49]
La sociedad industrial, según Foucault (1991, 2000),
necesitó de un control jurídico-político del alma (mente) caracterizado
por su abstracción, negatividad y discontinuidad, pero también de
una optimización y explotación del cuerpo a través de disciplina
generalizada, caracterizada por la ubicuidad y continuidad del control.
Para Foucault el modelo de la soberanía habla por la ley y el modelo
de la disciplina habla por la norma y por nuevas tecnologías que
disciplinan y regulan del cuerpo. El derecho moderno y sus codificaciones
sirvieron, según Foucault (1996;37), para ocultar los procedimientos
disciplinarios y las tecnologías tras la funcionalidad latente del
derecho burgués.
[50]
El derecho es una exquisita concentración de la experticia
socio-cultural que se haya codificada bajo pautas y procedimientos
supuestamente racionales. Es un conjunto de historias codificadas
en las que encontramos expresados los conflictos, las luchas y los
acuerdos de los agentes que lo construyen, ejercieron, ignoraron,
o destruyeron.
[51]
Los orígenes aparecen en los cuerpos, en los rituales
y marcas, se esconden detrás de los signos. El derecho es, para
Sloterdijk (2000) un sueño verosímil de la humanidad, nacido del
carácter insoportable de las situaciones caóticas, dionisíacas.
El derecho, al igual que la ética (cibernética), no persigue ningún
objetivo más que trabajar con las disfunciones. Para Foucault (1997),
el universo de reglas no está destinado a atenuar la violencia,
por el contrario, está destinado satisfacerla, a controlarla, a
tasarla, a regularla.
[52]
Comenta Bourdieu que, el arte de socavar los cimientos
de la autoridad y de los estados, consiste en buscar la fragilidad
de las raíces de los fundamentos últimos, procurando señalar su
injusticia, su arbitrariedad, artificiosidad y su imposición (Bourdieu,
1999; 126). Por ello, conviene siempre
hacer pasar a la ley por la ley y nada más, ocultando su origen
para mantener su firmeza. Allí radica el secreto mismo de la obediencia:
en la ocultación. “La amnesia del génesis, producto de la habituación
de la costumbre, oculta lo que se enuncia en la tautología brutal:
la ley es la ley, y nada más” (Bourdieu, 1999; 127). ¡Dura lex,
sed lex!
[53]
Es el orden espontáneo –intuitivo- de la práctica
el que primero aparece, el que se hereda. Es una actitud anímica
interior la que lleva hacia la regularidad y esto constituye la
(creencia en su) obligatoriedad’ (Weber; 1999: 260). Dirá Bourdieu que “se sabe que lo propio de la
eficacia simbólica es que solo se puede ejercer con la complicidad
de los que la sufren, tanto más segura cuanto más inconsciente,
o sea, cuanto más sutilmente arrebatada” (Bourdieu, 2000; 210).
[54]
La observancia de lo que de hecho se acostumbra es
un elemento tan fuerte de toda acción (particular o comunitaria),
que cuando la presencia coactiva de lo jurídico transforma una costumbre
en una obligación jurídica, prácticamente, añade muy poco a su eficacia
real. Mejor dicho, agrega solo una célula dormida y latente de ejercicio
de la violencia física o simbólica. Se ve clara la ilusión juridiscista
-ingenua creencia voluntarista de lo jurídico- cuando la obligación
jurídica va contra la costumbre y fracasa. Allí es cuando rompe
el circulo de ilusión tradicional sobre el cual las reglas son obedecidas.
Allí nos encontramos con la ineficacia simbólica de la norma, o
bien, con la violencia cruda. En el sentido inverso, ocurre el mismo
fenómeno cuando se produce el desuetudo de la norma jurídica. Es
por ello que, la convención puede determinar la conducta que la
existencia de un aparato coactivo jurídico, en el sentido weberiano,
no puede garantizar.
[55]
Es interesante ver que desde diferentes posturas
e ideologías se ha criticado tanto la intervención estatal rudimentaria,
vía la regulación jurídica, como la autorregulación de la red a
través, por un lado del desarrollo tecnológico libre de las empresas
y por otro, por la defensa ciudadana de ciertas libertades y derecho
elementales. Todas las posturas han sido duramente criticadas, aunque
la más criticada -sin dudas- ha sido la autorregulación del ciberespacio
dejada en manos de empresas y corporaciones con fines comerciales.
[56]
El nacimiento de Internet estuvo también signado por las necesarias
analogías que intentaron ubicar y asir el tiempo-espacio. El diseño
de los entornos fue una narrativa muy usada por los desarrollos
filosófico-políticos de Internet en la década del 80. Mas allá del
enfrentamiento con la virtualidad, el ciberespacio no pudo evitar
la analogía naturalista con el espacio urbano.
[57]
Dentro del capitalismo industrial las corporaciones
y monopolios que producían bienes materiales consideraban que para
regular eficazmente los usos finales dentro de un mercado era necesario
sancionar leyes. Preferían una legislación a la medida de sus intereses
comerciales antes que modificar la arquitectura del producto o de
su proceso de producción. Esta constituyó una instancia de irreversibilidad
para la producción industrial. Sin embargo, esta condición está
siendo rápidamente reemplazada por la convergencia y traducción
del mundo material hacia un mundo digital.
[58]
Nos referimos específicamente a dos derrumbes muy
particulares. Por un lado, la caída en 1989 del muro de Berlín,
que significo el derrumbe de una arquitectura -aparentemente horizontal
y extendida- de más de 200 años de tradición política. Por el otro
lado, el derrumbe de las Torres Gemelas del Centro de Comercio Mundial
(WTC). El 11 de septiembre de 2001 significó también la caída de
un modelo vertical, supuestamente opuesto al primero, con una tradición
también de más de 200 años sobre sus cimientos.
[59]
Los cambios a nivel tecnológico que produjo la ultima
parte de la revolución industrial, desde principios del siglo XIX,
fueron de singular relevancia para el desarrollo de las diferentes
redes de comunicación y para el control en las economías desarrolladas.
La electricidad se sumó a las redes ferroviarias
y al telégrafo para configurar nuevas formas de control y comercio.
Este conjunto de tecnologías
conforma una secuencia inseparable de la historia de capitalismo
industrial.
[60]
Las redes electrónicas, desde el punto de vista de
la distancia física entre nodos, pueden clasificarse en redes de
área personal, de área local, metropolitanas y redes de área extendidas.
Según su topología, las redes electrónicas pueden ser clasificadas
por sus formas de conexión (bus, estrella, token ring, etc.), o bien por los tipos
de conexiones físicas que poseen (por ejemplo, fibra óptica, cable
coaxial, y par trenzado). Otras redes puede también ser clasificadas
por el tipo de tecnología de transmisión de datos que emplea: TCP/IP
(Transport Control Protocol/Internet Protocol), o bien una red del
tipo SNA (Systems Network Architecture). Las redes pueden clasificarse
también por el tipo de contenidos que transportan, o sea, si transportan
voz, datos, o ambos tipos. Otro criterio posible es la diferenciación
entre quienes tienen o no acceso a la red, o sea, el carácter publico
o privado de la misma.
[61]
La digitalización
es aquella instancia donde la máquina llega a su máxima expresión.
Lo digital es la expresión de un perfectible control sobre el acopio
y transferencia de datos, sobre el trabajo interior de instrumentos
o dispositivos y sobre las formas de mostrar o distribuir la información.
Lo digital es una forma limitada, discontinua y discreta de analizar
el mundo. Tiene una temporalidad fragmentada en instantes o tiempos
específicos. Por el contrario, lo analógico remite a los infinitos
movimientos continuos, que por definición, es lo amplio, lo comparable,
lo que lleva de un lugar a otro mediante una comparación, mediante
causas y efectos. Lo analógico remite al mundo de los espacios clásicos
y es definido como el mundo de lo continuo, de la unión de causas
y efectos que le dan al mundo su aparente continuidad y realidad.
Lo digital-binario, como forma específica para las redes electrónicas,
es parte de una de las mayores traducciones del mundo donde lo digital
es la descomposición binaria de la materia, del espacio, pero fundamentalmente
del tiempo.
[62]
Si bien Castells indica que el ambiente
donde se desarrollo Internet fue un ambiente relativamente seguro
gracias a los fondos públicos gubernamentales del gobierno norteamericano,
también fue fundamental para su desarrollo la creación de ámbitos
de trabajo cooperativos donde no se sofocó la libertad de pensamiento
e innovación (Castells; 2001: 36). Junto al espíritu de cooperación,
asociación y emprendimiento, tal como lo entiende Richard Stallman,
encontramos principios básicos como la libertad de expresión, información
y la apertura de los lenguajes y códigos de programación.
[63]
Una de las claves para la rápida expansión de Internet
ha sido también, como no podría ser distinto, la libertad y apertura
de los documentos básicos que gobernaron el nacimiento de Internet
por la década del 60. Esta libertad de información estuvo caracterizada
por la aparición de las solicitudes de información, observaciones
o notas, de las llamadas ‘Petición de Observaciones’ (en inglés,
Request for Comments - RFCs), los que contribuyeron a la
circulación de información compartida en temáticas fundamentales
de interconexión de redes y sus protocolos comunes. Estas formas
abiertas y libres de intercambio y circulación de la información
son las que, junto a otros dispositivos, muestran que la historia
de Internet es la resultante de una convergencia de diferentes proyectos,
redes, tecnologías y comunidades que estuvieron implicadas en su
desarrollo de manera consciente o inconsciente.
[64]
Como bien afirma Castells, queda claro
que Internet no se originó en el ámbito empresarial por ser esta
una tecnología demasiado osada, basada en un proyecto demasiado
incierto y caro para ser asumido por empresas privadas (Castells;
2001: 36). Internet fue un ámbito de investigación que no fue pensado
para el comercio, pero esta situación cambió a principios de la
década del 90 con el desarrollo de la Internet masiva.
[65]
Este fue el caso de la Fundación para el Software Libre (Free
Software Foundation, www.fsf.org).
Este ámbito permitió la creación casi casual del World Wide Web
que desarrolló Tim Berners Lee. El nacimiento del WWW marcó la finalización
de una era de frustraciones en la incomunicación entre ordenadores
(Berners Lee; 1999: 33).
[66]
La ICANN es una corporación privada sin fines de
lucro organizada bajo la legislación de California que tiene por
misión gestionar algunos de los recursos claves para el funcionamiento
de Internet. Lo hace en función del interés público y en nombre
de la Comunidad Global de Internet. La ICANN depende –básicamente-
de la participación voluntaria de individuos y organizaciones (investigadores,
empresarios, usuarios, etc. de todo el mundo). El objetivo central
del proceso de creación de políticas de la ICANN es lograr un consenso
entre los participantes de la Comunidad puesto que se sabe que por
muchas de las decisiones y coordinaciones de la ICANN comienzan
a pasar partes importantes del futuro de la Internet. El sistema
de nombres de dominio y de direcciones (IP), de los que depende
el tráfico de Internet, forma parte de un notable éxito tecnológico-organizacional,
ya que son estándares abiertos y han sostenido el desarrollo de
Internet desde la década del 1980.
[67]
La Fundación para el Software
Libre (Free Software Foundation, www.fsf.org)
y la Iniciativa para las Fuentes Abiertas (Open Source Initiative,
www.opensuurce.org) son dos corporaciones
norteamericanas sin fines de lucro abocadas a la protección de las
fuentes abiertas y libres del software de la capa lógica de Internet.
Creative Commons www.creativecommons.org
es una corporación norteamericana sin fines de lucro involucrada
específicamente en la regulación de la capa de contenidos de Internet
(Ver capítulo 3).
[68]
Dicho por el mismo Baran, entrevistado por Lessig
(2001), algunos conceptos fundamentales de los desarrollos del packet
switching se deben al inglés Davies.
[69]
La creciente incompatibilidad que caracterizó los
sistemas informáticos y los diferentes grupos de usuarios, con tecnologías
y protocolos de red diferentes generó la necesidad de desarrollar
un conjunto de protocolos, para superar el autismo en el que se
encontraban las redes electrónicas y sus aplicaciones. Si hablamos
de comunicación, hablamos de códigos comunes, conversaciones y estandarizaciones.
Internet existe, al igual que muchos sistemas de comunicación, gracias
a la adopción de protocolos comunes para soportar las comunicaciones.
[70]
Según el alcance geográfico y funcionamiento las redes
de computadoras pueden dividirse en Redes de Área Local (LAN, Local
Area Network), Redes de Área Amplia (WAN, Wide Area Network)
y Redes de Área Metropolitana (MAN, Metropolitan Area Network).
[71]
El protocolo de enlace X.25,
considerado un protocolo pesado, fue el primer protocolo estándar
basado en la conmutación de paquetes y fue desarrollado en 1976
por el Comité Consultivo Internacional sobre Telégrafos y Teléfonos
(CCITT), nombre de lo que fue luego el Sector de Estandarización
de las Telecomunicaciones dentro de las Unión Internacional de Telecomunicaciones
(ITU-T). Ver http://www.itu.int/ITU-T/.
[72]
El modelo ISO/OSI esta compuesto
por siete capas o niveles. Estos conforman la arquitectura de interconexión
de los llamados sistemas abiertos. Del nivel 1 al 7: Capa Física,
Enlace, Red, Transporte, Sesión, Presentación y Aplicación. Los
tres primeros están orientados a comunicaciones.
[73]
Del nivel 1 a 5: Capa Física,
Enlace, Red, Transporte y Aplicación. Las capas del Sesión y Presentación se encuentran dentro
de la Capa de Aplicación.
[74]
‘End-To-End Argument in System Design’
[75]
Estos procesos tecnológicos, estas formas evolutivas, están incrementalmente
fuera de nuestro control, fuera de nuestro alcance. Según Kevin
Kelly (1994) lo tecnológico, las máquinas -aquello que es construido-
se está volviendo crecientemente biológico y lo biológico –aquello
que es innato, natural- se vuelve cada vez más diseñable, maleable,
construible. Las redes son, para nuestra época, un modelo que proviene
de la biología y pueden asimilarse a un modelo evolutivo. Las redes
y las tecnologías que las soportan aparecen como modelos de complejidad
siempre en aumento.
[76]
Esta simetría entre pares fue fundamental para volver
Internet un desarrollo tan radical. La primera Internet fue mucho
más abierta que la red que conocemos hoy. Los pocos hosts
que soportaron ARPANET -UCLA, SRI, UCSB, y la Universidad de UTAH-
fueron todos espacios de computación de información que se mantuvieron
en un estado de igualdad. ARPANET los unía bajo una relación entre
pares y no como una relación entre clientes y servidores estructurados
jerárquicamente. La Internet actual puede observarse más zonificada,
fragmentada, y tal vez, más cerrada que su modelo original.
[77]
Esta división en capas del espacio Internet permite
entender mejor las decisiones que fueron construyendo la red y observar
esquemáticamente su funcionamiento. Esta forma esquemática de ver
la estructura básica de Internet ayuda a analizar el concepto de
arquitectura, permite evaluar las regulaciones que la afectan y
permite observar los reguladores que están en juego dentro de este
campo de las regulaciones del ciberespacio.
[78]
Lawrence Solum y Minn Chung
en un reciente trabajo ‘The Layers Principle: Internet Architecture and the Law’
(2003) dividen Internet en 6 capa ordenadas jerárquicamente. Según
los autores, en forma descendente encontramos: a) Capa de Contenidos:
compuesta por símbolos, imágenes y todo aquello que es comunicado;
b) Capa de Aplicación: donde ubicamos los programas usados por Internet;
c) Capa de Transporte TCP: donde la información es fragmentada en
paquetes de información; d) Capa del Protocolo de Internet: o sea,
la capa IP que maneja los flujos de datos sobre la red; e) Capa
de Enlace: compuesta por la interfase entre los usuarios y las computadoras;
f) Capa Física: donde encontramos los cables, satélites, fibra,
o lo que llamamos genéricamente hardware.
[79]
La forma de pertenencia, propiedad o sustentación
de los recursos es esencial para comprender como la regulación tiene
efectos diferenciales sobre cada una de las capas. Asimismo, nos
permite ver los actores involucrados en los procesos regulativos.
[80]
Desde mediados de la década del 80 a mediados de la década del 90,
los modelos de negocios de las empresas desarrolladoras de software
comenzaron a cerrar del código fuente de los sistemas. Los productores
de software comercial comenzaron a crear aplicaciones propietarias
mediante códigos cerrados dentro del espacio que Lessig llama ‘espacio
de las aplicaciones’. Este diseño del entorno Internet, a través
de aplicaciones comerciales de código cerrado, violó las normas
básicas que Internet había tenido a lo largo de su historia.
[81]
Internet puede transformarse en una red cada vez
más propietaria, cerrada y que únicamente permita el acceso a los
que dispongan de autorizaciones. Las certificaciones y las diferentes
formas de regulabilidad en relación a la identidad pueden generar
una grave zonificación del ciberespacio.
[82]
Está claro que no todas las
regiones a nivel mundial desarrollan chips, routers, computadoras
o envían satélites al espacio. Luego de la segunda guerra mundial
el modelo Norteamericano de la gran ciencia rindió sus frutos en
la producción tecnológica. En menos de 20 años nació Internet, aunque
como bien afirma Castells (2001), nació con las marcas de una historia
a cuestas que en partes he podido analizar en el capítulo 2.
[83]
Esta tendencia de cierre de
la capa del código es lamentablemente muy actual. Las discusiones
sobre la peligrosa y errónea necesidad de patentar el software a
nivel mundial es el punto más álgido de las discusiones actuales.
¿Cómo pueden patentarse y darse exclusividad para una explotación
comercial las unidades básicas de nuestros lenguajes, de nuestra
condición sociotécnica, de nuestro genoma? Es la diversidad, en
su sentido más amplio, la que esta en juego frente a estas tensiones.
La diversidad que caracteriza nuestra condición humana frente a
la construcción de homogéneos y asfixiantes mundos (in)felices.
[84]
Sistema Operativo (SO) desarrollado en los laboratorios
de AT&T y Bell para soportar múltiples usuarios de diferentes
plataformas de hardware. Fue desarrollado por Ken Thompson y Dennis
Ritchie a finales de los años 60 (septiembre de 1969). Para más
información ver la línea del tiempo del UNIX http://www.levenez.com/unix/history.html#01
o bien directamente consultar ‘The Art of Unix
Programming’ escrito por Eric Steven Raymond
(2003).
[85]
GNU es un acrónico recursivo que indica de forma
creativa que el sistema GNU no es UNIX (GNU’s Not UNIX), pero que
además significa ‘nuevo’ (guh-new) en la pronunciación del Inglés.
Richard Stallman inició su cruzada moral, como afirma Sam Williams
(2002), con el propósito de lograr un sistema operativo como UNIX,
pero que a su vez fuera diferente. O sea, diferente en la posibilidad
de permitir usos libres del software. Para más información visitar
http://www.gnu.org/.
[86]
Stallman lo dice insistentemente en sus presentaciones:
tener o no la posibilidad de compartir con el vecino, tener o no
la posibilidad de compartir para emprender algo en conjunto. Es
por ello que, sin estos niveles de libertad, sería imposible pensar
en desarrollos como los del GNU o los de LINUX (también GNU/LINUX,
que para Stallman (2002) reconoce la importancia del proyecto GNU
en todos los desarrollos de software libre a nivel mundial). Richard
Stallman (2002) sintetiza estos derechos a través de cuatro clase
de libertades que tienen los usuarios del software: 0) Libertad
para ejecutar el programa, con cualquier propósito; 1) Libertad
de estudiar como el programa funciona y adaptarlo a nuestras necesidades
accediendo al código fuente; 2) Libertad de distribuir copias para
compartir, colaborar y emprender con el vecino, con el que esta
próximo; 3) Libertad de mejorar el programa y relanzar la mejoras
para el público en general. El Software Libre posee estas cuatro
características antes mencionadas.
[87]
La Iniciativa de Código Abierto (OSI - Open Source
Iniciative) fue creada por Eric Raymond, Sam Ockman, Bruce Perens,
entre muchos más pertenecientes a la comunidad. La OSI evalúa y
certifica si las licencias que utilizan los desarrolladores poseen
o no calidad de código abierto. Para más información visitar la
página http://www.opensource.org/. Según Stallman
el Software Libre y el Software de Código Abierto mantienen una
relación diferente frente a algunos valores, pero son parte de un
movimiento amplio dentro de la comunidad de Software Libre. Para
Stallman (2002) el enemigo a vencer el software propietario.
[88]
Solución elegante, astuta e inteligente para resolver
la situación problemática planteada, en este caso, por la legislación
sobre derechos de autor. Es un programa o solución alternativa para
escapar a la tensión entre el dominio público y la protección del
copyright. Por tanto, es también una instancia de gobierno, una
mediación técnico regulativa, tal como las hemos venido definiendo
a lo largo de este trabajo.
[89]
Todavía hoy resulta llamativo y admirable como Stallman
pudo vislumbrar las posibles consecuencias, nefastas, de cierre
de la producción abierta de software. La licencia tenía que dejar
completamente abierto el software y además debía invitar a otros
programadores a usarla para los mismos propósitos. La licencia pudo
traducir la ética hacker articulando las lógicas de la producción
de software, las lógicas legales y el espíritu de una comunidad
naciente.
[90]
Es importante resaltar que cuando se habla de código
abierto, dentro del contexto de la Open Source Initiative
(OSI), se incluyen también estándares generales de licencias no
menos importantes. Estas son las licencias GPL, LGPL, BSD Classic,
la Artistic, MIT o X Consortium, y la licencia Netscape. Sin embargo,
para Eric Raymond (2003) la OSD, Open Source Definition (Definición
de Código Abierto) http://www.opensource.org/osd.html es una
solución superadora de la ambigüedad que en el inglés tiene el concepto
Free Software, puesto que puede significar tanto software
libre, como software gratuito. El concepto de Open Source,
según Raymond (2003) forma parte de un contrato social que ha firmado
la comunidad de programadores del movimiento de Open Source.
Dentro de la OSD el derecho de copia, redistribución en formato
no modificado y la modificación para usos personales están garantizadas.
Sin embargo, la cláusula 6 (versión 1.9) de la OSD excluye, prohíbe
y se diferencia de las licencias que excluyen los usos comerciales.
En este sentido la OSD se contrapone a la GPL puesto que, según
Raymond (2003), está ultima genera una ambigüedad constitutiva al
no poder establecer cuales son las re-distribuciones del software
que implican un uso comercial y discrimina los emprendimientos comerciales.
Esta discusión actualmente divide la comunidad de programadores
y usuarios del software libre y de fuente abierta. Para más información
visitar la página http://www.opensource.org/
[91]
La GPL también habla de si misma, sobre lo que permite
la licencia GPL sobre si misma. Se especifica en la página de la
GNU que la licencia permite a cualquiera copiar y distribuir copias
literales de este documento, pero no esta permitido cambiarlo o
modificarlo. Es este sentido, si estuviéramos hablando de teoría
constitucional dentro del ámbito jurídico, la licencia GPL sería
una cláusula de las que se llaman pétreas o inmodificables.
[92]
Específicamente para Raymond y los líderes de la
OSI lo que verdaderamente interesa a la OSD (Open Source Definition)
cual es el grado de exclusión, diferenciación e infección que una
licencia posee para brindar el certificado de Open Source.
Una licencia esta infectada, según Raymond (2003) cuando requiere
que cada trabajo derivado del software licenciado también sea licenciado
bajo los mismo términos. La GPL es la licencia de estándares abiertos
que más infectada está. Stallman (2002) ha contestado estas diferencias
por dentro de la comunidad explicando que ‘Free Software’
y ‘Open Source’ describen, más o menos, la misma categoría
de software. Sin embargo, dicen cosas diferentes sobre el software
propiamente dicho y sobre los valores que su producción envuelve.
Para Stallman y el proyecto GNU, el concepto FREE SOFTWARE
sigue expresando la idea de que la libertad -y no solo la tecnología-
es importante para nuestras sociedades.
[93]
No hablo de los intereses privados de las corporaciones
comerciales, ni tampoco de los intereses de grupos económicos que
pretenden regulaciones a la medida de sus modelos de negocios dentro
de mercados ficcionales. Me refiero a la esfera de lo privado como
construcción íntima y separada de lo público estatal. Me refiero
a la esfera de las libertades que tenemos como ciudadanos. En suma,
me refiero a la instancia privada constructora de lo público, hablo
de la instancia privada (libre y originaria) que, de tan atomizada
y distribuida, conforma la instancia pública soberana común, típica
de la modernidad política.
[94]
La relación que existe entre las normas privadas y las
leyes públicas es esencial para comprender los actuales cambios
en el campo de las regulaciones. Entre estas dos instancias existe
una interrelación dinámica. Los pactos, convenciones y contratos
entre particulares valen como la ley misma solo bajo la condición
de no afectar intereses públicos generales. Esta limitación a las
libertades individuales es fundamental para entender el rol de lo
público, puesto que las regulaciones privadas están siempre supeditadas
a no afectar el bien colectivo. Sin embargo, no
hay que confundir la preeminencia de los pactos, normas y convenciones
de la esfera privada con el pernicioso proceso de privatización
de las legislaciones a nivel mundial. Esta legislaciones privatizadas,
a medida de los intereses económico concretos, regulan la vida de
los ciudadanos bajo el sello de los intereses de corporaciones comerciales.
[95]
Tal como afirma Raffaele
Simone (2001), la escritura abierta para los textos legales ha sido
siempre imposible. Estos siempre se han mantenido como textos inviolables,
crípticos e inaccesibles. Actualmente, la escritura de las nuevas
leyes-códigos -aún relativamente abiertos- requieren del manejo
de varios lenguajes que no implican exclusivamente el lenguaje jurídico.
A pesar de sus características específicas, este es claramente un
nuevo emergente en la historia de las regulaciones.
[96]
La escritura o el alfabeto, al igual que la imprenta
o las redes electrónicas, también son tecnologías (Ong, 1997; Olson,
1998). Las mismas han siempre establecido nuevos regímenes en la
relación entre el conocimiento y el cuerpo-mente. Fue la imprenta, según Eco
(1999), la que permitió la seriación y la emergencia del libro como
primera de las mercancías que anticipa la modernidad. Históricamente,
antes de la imprenta y de la disponibilidad de papel para la misma
máquina, no existía el derecho de copia o copyright. Tal
vez si existía el derecho de autor en sentido genérico, aunque ciertamente
no la construcción de la figura del autor, ni tampoco el derecho
o la regulación sobre las copias en cabeza del editor. Esta construcción
y sus implicancias económicas, sociales y culturales, según Foucault
(1985; 1996-B) aparece siglos después con el desarrollo de la ilustración.
[97]
¿Qué ocurre cuando el control -lejos de ser imperfecto-
logra conformarse como perfecto y ubicuo para excluir a terceros
de obras que son fundamentales para la diversidad cultural, la innovación
y los valores democráticos de nuestras sociedades?
[98]
La vieja división dicotómica entre invención y descubrimiento
esta rápidamente desdibujándose. Las consecuencias de estas nuevas
categorías en formación son realmente inciertas. Las diferencias
son aun más notorias cuando vemos la estructuración interna que
los derechos de autor y la propiedad intelectual ha tenido en estos
últimos siglos. No es menor el cambio en relación a la patentabilidad
y la protección intelectual de los hechos, los procesos, los métodos,
los códigos y las ideas.
[99]
Al igual que en muchos países a nivel mundial en
Argentina, la ley 24.870 (sanción 20/8/97 y promulgada 11/9/97)
modificó el artículo 5° de la ley de Propiedad Intelectual (11723)
elevando los plazos, originalmente de 50 a 70 años contados a partir
del 1 de enero del año siguiente al de la muerte del autor.
[100]
Tal como nos ha mostrado Javier
Candeira (2001) la web y fundamentalmente los weblogs comienzan
a funcionar como una memoria externa, como un hipocampo colectivo,
formando una verdadera inteligencia conectiva (de Kerckhove; 1999).
Esta es la ecología informacional que debemos proteger dentro de
la capa de contenidos de un medio como Internet.
[101]
Afirma James Boyle (2003) que aquello que se conoce como ‘enclosure’
forma parte de un movimiento de privatización de los bienes comunes
o bienes que estaban fuera del sistema propiedad. Lo que se conoce
como la tragedia de los primeros bienes comunes se dio primero en
Inglaterra, y luego en otras regiones europeas, durante el siglo
XVIII. Las interpretaciones sobre el proceso de cierre de las tierras
comunes y el advenimiento de la propiedad privada de las tierras
puede ser interpretado desde diferentes perspectivas. Suelen contraponerse
por un lado las perspectivas económicas y, por el otro, las socio-políticas.
Las primeras generalmente, si no son críticas, priorizan el rendimiento
y productividad de las tierras sub-explotadas bajo el régimen de
la propiedad común. Desde esta perspectiva el sistema de propiedad
privada fue exitoso y las tierras se volvieron productivas salvando
las poblaciones de las hambrunas. Las visiones socio-políticas preferentemente
se enfocan en las consecuencias trágicas que estas migraciones del
campo a las ciudades tuvieron sobre los procesos europeos de urbanización
de los siglos XVII y XVIII. Esta segunda interpretación es la que
más se ha difundido.
[102]
Al español podría traducirse como Creatividad Colectiva-Compartida-Común-Comunitaria-Abierta.
Creative Commons está dirigida por un Consejo de Directores entre
los que se incluyen importantes expertos como los de Lawrence Lessig
(presidente) y James Boyle. El proyecto actualmente se aloja y desarrolla
dentro del Centro para Internet y Sociedad de la Escuela de Derecho
de Stanford University.
[103]
El sitio de Creative Commons recomienda a
quieres tengan que proteger y licenciar obras vinculadas directamente
con el desarrollo de software que recurran a la vieja y efectiva
GPL (General Public License) del GNU. De forma similar, en
la página de la FSF (Free Software Foundation) recomiendan
que en caso de necesitar licenciar otros contenidos ni vinculados
con desarrollos de software específicamente se recurra al sitio
de Creative Commons.
[104]
Common Content puede verse en http://www.commoncontent.org/. Funciona
como un repositorio de obras que son licenciadas bajo las condiciones
que habilita Creative Commons. Otro de los sitios a los cuales
se puede acceder para la búsqueda e intercambio de materiales es
The Internet Archive (El Archivo de Internet) http://www.archive.org/
donde se esta construyendo un biblioteca de materiales digitales
(textos, fotos, películas, etc.).
[105]
Tal como afirma Benkler (1999) mucha de la producción de Internet
esta disponible gracias a las arquitecturas par a par que activaron
la libertad de circulación de materiales gracias a la libre y transparente
circulación de la información.
[106]
Si bien las licencias no se contraponen a la ley norteamericana
de copyright (DMCA, Digital Millennium Copyright Act),
en muchos aspectos, las licencias son incrédulas de las jurisdicciones
a nivel mundial tanto por su condición de emergente privado, como
por la similitud de las legislaciones.
[108]
Para la legislación Norteamericana, que sufrió múltiples
reformas y extensiones en los últimos 30 años, el plazo de protección
de las obras depende fundamentalmente del tipo de obra y de la fecha
de publicación de las mismas. En general, una vez que una obra es
creada y plasmada de en una forma tangible luego del 1ro de enero
de 1978, está protegida automáticamente por el término máximo de
la vida del autor/es más 70 años posterior a la fecha de su muerte
(o ultimo autor sobreviviente).
[109]
En International Commons ya están participando muchos
centros de investigación de diferentes países del mundo. Están involucrados
en la traducción de las licencias institutos y diferentes laboratorios
de Japón, Finlandia, Brasil, Irlanda, Italia, Francia, China, Taiwán,
Reino Unido. Se estima que para el 2004 más de 25 países lograran
la traducción de sus licencias.
[110]
Hasta hace poco tiempo las formas de organizar los
recursos informacionales en la Web han sido inconsistentes. Los metadatas han ido surgiendo
a medida que la complejidad de la organización de la información
se ha hecho insostenible. La infraestructura de los metadatas fueron
desarrolladas y sumadas a la Web a partir del año 1998.
En este sentido, puede decirse que han tenido un gran desarrollo gracias a la aparición
de las aplicación P2P. El poder de las tecnologías P2P brindó la
posibilidad de repensar las viejas decisiones y reinventar las formas
de producir experiencias organizativas en la Web. En este cambio
ha sido esencial la aparición de una nueva evolución en la arquitectura
de la Web: específicamente, el cambio de HTML hacia el XML. Para más información ver el texto de Rael Dornfest y Dan Brickley (‘The Power of Metadata’)
que formó parte de la 'O'Reilly Peer-to-Peer Conference’, en Febrero de 2001, San Francisco: Compilado por Andy Oram en 2001, ‘Peer-to-Peer: Harnessing the Power of Disruptive
Technologies’,
[111]
HyperText Markup Language: Lenguaje de Marcatura
Hipertextual.
[112]
Resuorce Description Framework: Estructura
o Lenguaje para la Descripción de Recursos. Los RDF integran una
diversidad de aplicaciones de intercambio de contenidos en la Web.
Conforman catálogos de bibliotecas, directorios, compilaciones de
noticias, software y contenidos varios (música, fotos, documentos,
etc.). Más información sobre RDF puede ser encontrada en http://www.w3.org/RDF/
[113]
Actualmente, Tim Berners Lee sigue sus investigaciones
en el Consorcio W3C encargado de liderar los proyectos de la Web
a nivel mundial. Para más información, ver www.w3.org.
[114]
Extensible Markup Language: Lenguaje de Marcatura
Extensible. El XML es un formato de texto simple y flexible derivado
del SGML y desarrollado originalmente para soportar publicaciones
electrónicas y el intercambio de datos en la web.
[115]
Uniform Resource Identifier: Identificador
Uniforme de Recursos.
[116]
Uniform Resource Locator: Localizador Uniforme
de Recursos.
[117]
RSS es un formato de sindicación
de contenidos web y su nombre es un acrónimo de Really Simple
Syndication (Sindicación realmente simple). El RSS se puede
considerar un dialecto del XML.
[118]
Synchronized
Multimedia Integration Language.
[119]
Todas las
URLs citadas pueden estar sujetas a modificaciones o cambios. |