Metabolismo, comunicación y evolución en redes bacterianas y tecnológicas.


Portada

Metabolismo, comunicación y evolución en redes
bacterianas y tecnológicas.De la biosfera a la tecnosfera, un ensayo sobre la autonomía y la
evolución de código abierto.

Xabier Barandiaran
Lluis Guiu
Autonomía Situada
(independent research center)

http://sindominio.net/autonomiasituada
versión 0.5

1 Abril 2004

Resumen

La estructura microcósmica del metabolismo y la comunicación en la biosfera (especialmente
en relación a las redes bacterianas) ofrecen metáforas o herramientas conceptuales para
entender los procesos autoorganizativos de las redes cooperativas en la tecnosfera. Partimos
del análisis del origen y expresión mínima de la vida como fusión entre sistemas autónomos y
estructuras formales (template). Esta fusión entre un sistema dinámico automantenido
(autónomo) y estructuras moleculares recombinables da lugar al origen de la información en la
naturaleza: la información genética. Si entendemos por comunicación la transmisión de
información entre dos sistemas autónomos (capaces de interpretación), las redes bacterianas
de transferencia genética horizontal constituyen el primer ejemplo de una red de comunicación
global: un sistema de evolución abierta cooperativa responsable del mantenimiento de la
mayor parte del ecosistema planetario y de la mayor red de innovación biotecnológica que
conocemos. No es por tanto descabellado proyectar (de la biosfera a la tecnosfera) este marco
teórico para reconceptualizar el desarrollo tecnológico humano y redescubrir la autonomía
tecnológica, las comunidades de desarrollo de software libre y las redes electrónicas de
intercambio de información como fundamentos de autoorganización social cooperativa.

Palabras Clave

Transferencia genética horizontal, autonomía, metabolismo, información, comunicación,
software libre, código abierto, redes bacterianas, algoritmos genéticos, redes de innovación
tecnológica.

Copyright © 2004 Xabier Barandiaran y Lluis Guiu. COPYLEFT: todos los
derechos del revés:

Se permite la copia, distribución, uso y puesta a disposición de la obra, siempre y cuando se reconozca la
autoría y no se use la obra con fines comerciales —a no ser que se obtenga permiso expreso de los autores.
Los autores permiten distribuir obras derivadas de esta sólo si mantienen la misma licencia. Esta nota no es la
licencia completa de la obra sino una traducción de la nota orientativa de la licencia original completa que puede
encontrarse en:


http://creativecommons.org/licenses/by-nc-sa/1.0/legalcode



Introducción*

* Este artículo está basado en una conferencia de Autonomía Situada que tubo lugar el 22 de Octubre
del 2003 en el centro cultural Conde Duque de Madrid con motivo de la exposición Metabolismo y
Comunicación realizada por el Medialab Madrid. La conferencia titulada “Cooperación sin Mando:
Código abierto y bacterias” estaba compuesta de dos partes complementarias. Una primera (impartida
por Xabier Barandiaran) en torno al origen de la vida, la evolución y el mundo bacteriano, y una segunda
parte (impartida por Miquel Vidal) en la que se profundizó en el modelo de desarrollo y la estructura de
la comunidad del software libre. Recogemos en este ensayo una elaboración de la primera parte de
aquella conferencia y desarrollamos, a continuación, una breve introducción al mundo del software libre.
Por tanto, igual que en la conferencia original, este artículo está pensado para completar su lectura con
el artículo de Miquel Vidal “Cooperación sin mando. Una introducción al software libre” publicado en la
biblioweb de SinDominio.net:
http://sindominio.net/biblioweb/telematica/softlibre/

Nuestro cosmos está construido sobre un tejido tecnológico que sustenta los procesos
comunicativos económicos, culturales, científicos, gubernamentales, etc. que definen las
sociedades del conocimiento. Se constituye así una tecnosfera atravesada por flujos de
información e innovación, una red global de desarrollo permanente en la que se
despliegan grandes fuerzas productivas. Una red, en definitiva, de artefactos y
dispositivos que operando recursivamente sobre sí mismos transforman irreversiblemente
nuestro entorno penetrando profundamente en la forma en que construimos sociedad y
nos conocemos a nosotr*s mism*s. La tecnosfera se está convirtiendo en un
macrocosmos de complejidad creciente, difícilmente comprensible, amenazando con
desplazar la capacidad humana de definirse a sí mismo, su propia autonomía. Es ya lugar
común de reflexión subrayar que vivimos en formas de economía social que han puesto a
trabajar a la comunicación y con ella a los procesos de producción de identidad individual
y colectiva (símbolos, afectos, atención, inteligencia, creatividad, etc.), entrelazando así la
autonomía humana (nuestra capacidad de redefinir constantemente los horizontes de la
acción y la autocomprensión) con la producción global inmaterial a través de interfaces
TIC (tecnologías de la información y la comunicación). En este contexto dos modelos
productivos luchan por definir el paisaje económico. Por un lado los modelos económicos
basados en el código cerrado y la restricción de libre circulación del conocimiento; i.e. el
cercamiento de la comunicación para generar una escasez que impulse un proceso
evolutivo de innovación por competición (con el consiguiente recorte de libertades,
producción de dependencias funcionales tecnológicas, surgimiento de monopolios,
explotación social no remunerada, etc.). Sus dispositivos principales son el copyright
restrictivo, las patentes, las sociedades de autor, el modelo de desarrollo de software de
propietario, las tecnologías anticopia, etc.. Por otro lado encontramos los modelos de
producción basados en el código abierto, la libre circulación del conocimiento y la creación
de recursos colectivos para una producción distribuida, cooperativa y auto-organizada en
base a principios evolutivos no excluyentes; es el modelo del copyleft, el software-libre, la
cultura popular, el conocimiento científico, etc.

Una mirada al microcosmos nos revela herramientas conceptuales para reorientar
nuestra acción en este cosmos tecno-informacional. Y es que las redes bacterianas
inventaron internet mucho antes que nosotros (Guiu 2003), el primer sistema global de
comunicación que produjo la mayoría de las herramientas biotecnológicas conocidas y que construyó y mantiene la biota hasta nuestros días. Las bacterias descubrieron un
proceso colectivo de evolución abierta horizontal y cooperativa, un proceso en el que se
mezclan comunicación y metabolismo, transferencia de información y autonomía: las
redes de transferencia genética horizontal. La capacidad de estas redes de aumentar la
complejidad adaptativa de los individuos que las componen y de auto-regular su entorno
(a escala planetaria) es asombrosa y sólo comparable a la evolución vertical darwiniana.

La tecnosfera ha conocido y alberga un proceso parecido al de la biosfera
microcósmica bacteriana: se trata de la red de intercambio de código libre que constituye
la comunidad del software libre (y en sentido más amplio a la comunidad copyleft), un
proceso en el que autonomía individual y desarrollo colectivo-cooperativo van de la mano.

Autonomía e información

Comprender los procesos que constituyen esa red de transferencia genética horizontal
bacteriana exige primero analizar la estructura de los procesos metabólicos e
informacionales que generan la vida. Podemos empezar con la hipótesis de que el origen
de la vida es la fusión entre dos tipos de estabilidad: la de los sistemas dinámicos
autoorganizados (sistemas autónomos o autopoiéticos) y la de las formas o plantillas
(templates) replicantes (ADN-ARN). Los primeros son sistemas alejados del equilibrio
termodinámico, los segundos estructuras energéticamente estables sujetas a
recombinación. La fusión de ambas formas de estabilidad da lugar al concepto de
información (información genética) y por tanto constituyen, también, las bases biológicas
del origen de la comunicación.

La forma en que ambos tipos de estabilidad se fusionan es crucial para entender el
fenómeno de la información y la comunicación. Una forma de fusión (la de procesos
dinámicos interpretativos y la de registros recombinables) que está tan presente en
nuestra vida cotidiana cuya complejidad y origen se nos han hecho transparentes.
Detengámonos, pues, a analizar detenidamente los detalles de este “cierre semántico”
(como lo bautizó el biofísico Howard Pattee) que se encuentra en las raíces del
surgimiento de la vida y la comunicación en el universo.

Sistemas autónomos

Los sistemas autónomos son sistemas dinámicos (su estructura depende de la velocidad
relativa entre los componentes del sistema), termodinámicamente abiertos y alejados del
equilibrio: esto quiere decir que necesitan un flujo constante de materia y energía para
mantener su estructura. La naturaleza de estos sistemas fue estudiada por el químico y
premio novel Ilya Prigogine que acuñó el término “estructuras disipativas” para referirse a
los patrones estables que surgen de la organización de los procesos termodinámicos
alejados del equilibrio. Se dice que estos sistemas se autoorganizan porque el orden que
presentan se origina en la interacción recurrente entre sus componentes y en el flujo
termodinámico que los atraviesa y no está impuesta desde fuera; pequeñas fluctuaciones
microscópicas se acoplan en ciclos de retroalimentación para generar un patrón global
cohesivo (estable frente a perturbaciones internas y externas). Ejemplos de estos
sistemas son las células de Benard (pequeñas vesículas hexagonales que se forman espontáneamente cuando un líquido es calentado de forma desigual en sus superficies
superior e inferior), los remolinos de viento y los tornados o los láseres (en los el
movimiento de una masa crítica de electrones se sincroniza generando un rayo de fotones
intenso).
fig1


FIGURA 1: Ejemplos de estructuras disipativas
autoorganizadas: células de convección de Benard
(izquierda) y un tornado (derecha).

Pero además la naturaleza de los sistemas autónomos es tal que se automantienen
activamente, es decir, se autorregulan internamente e interactúan con el entorno para
mantener el flujo (absorción y disipación) de energía y materia necesarios para su
mantenimiento. Técnicamente son sistemas que controlan sus condiciones de contorno y
generan las constricciones necesarias para su automantenimiento.

La tradición cibernética en filosofía de la biología (Maturana & Varela 1980) ha
defendido que el origen de la vida se encuentra en una noción similar que puede ayudar a
aclarar el término de sistemas autónomos. Se trata de los sistemas autopoiéticos (del
griego auto-construcción). Un sistema autopoiético es una red de procesos de producción
(síntesis y destrucción) de componentes, de tal manera que estos componentes:

1. continuamente regeneran y realizan la red que los produce, y
2. constituyen el sistema como una unidad distinguible en el dominio en que existen.


Ejemplos de sistemas cercanos a los autopoiéticos son las redes autocatalíticas
(Kauffman 1993) en las que una red de procesos químicos produce los catalizadores para
sus propios procesos, generando así un bucle retroalimentado de procesos químicos
automantenidos, circuitos cerrados en los que los productos de ciertas reacciones
químicas se acoplan acelerando otros procesos que a su vez actuan sobre los primeros.
Si una red autocatalítica se encuentra envuelta en una membrana de lípidos que la separa
de su entorno y es capaz de reparar y generar esa membrana ya estaremos más cerca de
un sistema autopoiético mínimo. Experimentos invitro para crear estas formas mínimas de
sistemas autopoiéticos han sido realizadas con éxito por el grupo de investigación dePier
Luigi Luisi en el instituto tecnológico federal de Zurich1.


fig2

FIGURA 2: A la inzquierda el modelo autopoiético
computacional de McMulling & Varela (1997) y a la
derecha vesículas autopoiéticas mínimas de Luisi.

El concepto clave que define a los sistemas autónomos es el de autoorganización y
autoconstrucción: procesos físico-químicos que se producen y se mantienen a sí mismos
recursivamente e interactuando con su entorno para asegurar el flujo de materia y energía
necesarios para mantener su estructura alejada del equilibrio (Ruiz-Mirazo & Moreno
2000). La teoría de sistemas autónomos básicos hace referencia, en definitiva, al
metabolismo (Boden, 1999), a los ciclos e hiperciclos termodinámicos que acoplados
entre sí mantienen la estructura de los sistemas vivos; en otras palabras los sistemas
autónomos son sistemas capaces de encauzar la energía del entorno para producir el
trabajo necesario que asegure su estructura alejada del equilibrio.

Moldes y estructuras replicables.

Por otro lado en la tierra pre-biótica es de suponer que existieran también moldes o
estructuras replicables que llamaremos templates. Los templates son estructuras físicas
termodinámicamente estables o energéticamente degeneradas. Esto quiere decir que su
estructura se mantiene estable sin necesidad de un flujo termodinámico que las atraviese
y que tienden a desintegrarse a un ritmo comparativamente muy inferior al de los sistemas
autónomos. Además los templates muestran un orden recombinable, están compuestos
de partes cuyas recombinaciones son igualmente estables y por tanto energéticamente
equiprobables. Los templates no tienen agencialidad (no tienen que ser activos para
mantener su propia estructura —son termodinámicamente cerrados) pero la
recombinabilidad de sus componentes los hace propicios como vehículos de información
(en sentido de Shannon): gracias a su recombinabilidad digital y su estabilidad molecular
permiten una copia y variabilidad estructural. Ejemplos de estas estructuras fácilmente
replicables son el ADN y el ARN.
......................
1
Para una reciente síntesis de su trabajo ver Szostak, Bartel & Luisi 2001 o consultar
http://www.plluisi.org


Mal llamados autorreplicantes por algunos biólogos (Dawkins 1976) los templates
se han considerado (en las teorías gen-centristas) el origen de la vida al margen de los
sistemas autónomos. Según la teoría del Mundo ARN (RNA world) las estructura
“autorreplicantes”, sometidas a la presión selectiva de la escasez de recursos moleculares
para su reproducción, empiezan a generar estrategias reproductivas cada vez más
complejas creando envoltorios (cuerpos, colonias, etc.) cuyas conductas predeterminan
de forma egoísta para asegurar su replicación diferencial a escala evolutiva. Pero el
término replicante genera una ilusión de autonomía ya que la estructura supuestamente
“autorreplicante” es realmente reproducida por un entorno que la toma como molde. En
este sentido (a diferencia de los sistemas autónomos) en los moldes no existe una
identidad dinámica de la que pueda derivarse un egoísmo o una auto-replicación. Es más,
los numeroso experimentos invitro que han intentado reproducir los orígenes de la vida en
base a estructuras o moldes replicables han fracasado a la hora de generar estructuras
dinámicas (metabólicas) complejas. En lugar de generar una organización dinámica de
complejidad creciente (como la que se observa en la biosfera) la tendencia es la de una
reducción al máximo en la secuencia que compone la estructura replicable, para permitir
que su replicación sea más rápida y abundante. Es el caso de los famosos experimentos
de Sol Spiegelman en los 60 en los que consiguió demostrar la posibilidad de replicación
de RNA sin metabolismo. Spiegelman y sus colaboradores introdujeron en una cubeta
ARN molde del virus Qß, así como la replicasa de Qß junto a varios monómeros. La mezcla
produjo un crecimiento exponencial del ARN molde. Además el ARN molde era diferente
al original y las repeticiones del experimento daban siempre el mismo resultado final. En
la cubeta se estaba dando un proceso evolutivo de selección de templates que (bajo las
condiciones experimentales establecidas) daba lugar a una forma final de ARN molde
adaptado que vino a llamarse el “monstruo de Spiegelman”. Sin embargo después de 74
generaciones el experimento se “estanca” en este punto: de las alrededor de 4500 bases
que componían el ARN molde original del virus Qß el resultado “evolutivo” era siempre el
mismo, un “monstruo” replicante de tan sólo 220 bases nucleótidas. Eigen (Eigen et. al.
1981) repitió los experimentos en 1974 y llegó incluso a sintetizar ARN de novo. Pero los
resultados de la selección replicante del ARN molde era siempre una cadena mínima de
entre 150 y 250 nucleótidos. La selección natural cuando opera en base a estructuras
replicables tiende a reducir la complejidad de las moléculas molde, no a aumentarla y,
desde luego, es difícil imaginarse cómo pueden surgir organismos o sistemas metabólicos
a partir de moldes replicables simplificados al máximo. En efecto la replicación de
estructuras molde estables puede ser una condición necesaria para la aparición de vida
en la tierra, pero desde luego no es una condición suficiente. Será necesaria la fusión
entre sistemas autónomos y templates para comprender el origen de la vida y el
surgimiento de la información en la naturaleza.


fig3

FIGURA 3: Representación tridimensional de una
molécula de ADN (izquierda) y estructura recombinable de
los nucleótidos del ADN (derecha).

El concepto de información y el origen de la vida

Un error conceptual muy común en las sociedades de la información (en las que el
concepto de información se ha hecho transparente y aproblemático) es concebir la
información como paquetes que contienen en sí mismos un significado o una semántica
propia (absoluta, objetiva y aislada de un contexto de interpretación). Estamos tan
sumergidos en el espacio informacional que hemos cosificado la información. Ésta se nos
aparece como un objeto más a nuestro alcance: sujeto a compra, venta, copia,
modificación, almacenamiento... , y no nos damos cuenta de que la información es una
propiedad relacional entre un significante (un símbolo, una señal, un registro) y un
intérprete. Sin embargo, la información no es algo que se encuentra en el registro, en el
significante o en la señal que es lo que realmente manipulamos, compramos, vendemos o
almacenamos. Por el contrario la información, el significado (o el contenido semántico)
surge precisamente en el momento en que es interpretado por otro sistema. Sólo cuando
son leídas las letras que componen un libro empiezan sus personajes a cobrar vida, sólo
cuando un sonido llega a nuestros tímpanos y es interpretado por nuestro sistema
nervioso deviene el sonido palabra y surge un significado que es reconstruido en nuestro
sistema nervioso a partir de una señal sonora. A un significante pueden atribuírsele un
conjunto indefinido de significados ya que el significado (el contenido informacional) no es
algo que le pertenezca al significante en sí. Pero mientras que el significante (el registro:
letra, marca, grafo, molécula, etc.) tiene una realidad física palpable y directamente
accesible no está muy claro a qué nos referimos con “sistema interpretante”; éste queda
relegado a una especie de realidad difusa, abstracta, de tipo histórico, cultural, social o
psicológico.

En nuestra comprensión física de la naturaleza no existe la información. La física
como disciplina científica no incluye la información como magnitud, ley, partícula o
proceso ni puede derivarse directamente de ninguno de sus principios fundamentales.
¿Cómo explicar pues el surgimiento de la información? Una posibilidad es recurrir a una
instancia espiritual superior en la que residan las propiedades semánticas de la materia
(consciencia, espíritu, etc.) o introducir una unidad informacional como primitivo teórico en la física (como ha propuesto recientemente el filósofo de la mente David Chalmers —
1995). Otra alternativa, más razonable, es acudir a la forma más básica de información en
la naturaleza e interrogarla desde ese momento originario en el que surge: analizar a
partir esa estructura fundamental que es la información biológica (mucho más cercana a
procesos físicos y químicos bien conocidos).

El surgimiento de la información en biología está fuertemente unido al origen y
definición de la vida: se trata precisamente del acoplamiento entre sistemas autónomos
básicos y estructuras replicables o templates (Ruiz-Mirazo, Peretó & Moreno 2003). Los
dos tipos de estabilidad descritos anteriormente (autonomía y template) se requieren
mutuamente para dar lugar a la información biológica: los template almacenan registros
energéticamente estables y por tanto heredables (que se transmiten entre generaciones y
entre individuos). Los sistemas autónomos, a su vez, generan y sostienen las condiciones
físico-químicas para la reproducción molecular de los templates y definen un dominio de
existencia en constante interacción con el entorno. Además el sistema autónomo es
capaz de interpretar el código genético y, tomando como molde el ADN, producir
proteínas que se insertarán funcionalmente en el conjunto del metabolismo. En el caso
del ADN, el código genético es, como todo código, una convención: no hay relación
necesaria entre la secuencia de aminoácidos que compone una proteína y los codones
del ARN que la codifican. En concreto hay un proceso de decodificación que lleva a cabo
la enzima (aminoacil-tRNA sintetasa) que es la que establece esa relación entre
nucleótidos y aminoácidos. El código genético podría haberse "congelado históricamente"
de otra manera. Lo interesante de la vida y la biosemiótica es que el ADN codifica también
la enzima aminoacil-tRNA sintetasa, es decir, codifica su propia condición de
decodificación. El significado surge cuando la proteína resultante de la decodificación del
ADN se pliega y se integra funcionalmente en los procesos de automantenimiento y
adaptabilidad del sistema2. Este es el cierre semántico (Pattee 1995) que da origen a la
información semántica en la historia natural y por tanto la forma fundamental y originaria
sobre la que metabolismo (autonomía) y comunicación se dan la mano.

En términos generales para que una estructura sea informacional hace falta un sistema dinámico
autosostenido que lo interprete y lo haga funcional para sí mismo.

fig4

FIGURA 4: Representación tridimensional de la enzima
aminoacil-tRNA sintetasa interpretando una secuencia de
ADN.

Las proteínas producidas tomando el ADN como molde regulan la dinámica
metabólica del sistema autónomo en virtud de sus propiedades catalíticas. La introducción
de un template que instruye los procesos dinámicos del sistema autónomo permite así
superar el umbral de complejidad de una organización puramente dinámica (limitada en
su capacidad organizativa por el tamaño y las interferencias entre sus procesos
bioquímicos, así cómo de sus capacidades de reproducción reteniendo complejidad
organizativa —Moreno & Ruiz-Mirazo 2002). El template como registro que es
interpretado por el sistema autónomo permite guardar información sobre la estructura del
sistema y transmitir esa información evolutivamente. A su vez la fusión de los templates
con los sistemas autónomos ha permitido superar el umbral de complejidad
autorreplicante y aumentar la complejidad secuencial de las cadenas de ADN. Surge así
la vida en su expresión más fundamental y originaria: la célula. A partir de aquí la fusión
entre secuencias molde y sistemas autónomos dará lugar (a través de la transmisión
informacional de la estructura bioquímica funcional de los sistemas autónomos) a un
proceso histórico y colectivo: la evolución.

Evolución

La información permitió el desarrollo de formas complejas de vida a través de un proceso
que denominamos evolución abierta. Un proceso de variación y retención selectiva de
estructuras codificadas que va generando una creciente complejidad en las formas de
automantenimiento y, a su vez, en las secuencias moleculares que las especifican (el
ADN).

En este sentido existen dos tipos fundamentales de evolución: por herencia vertical
y por transferencia horizontal3. La vertical o darwiniana es quizás la más conocida: la
............
3 .Existen también otros mecanismos evolutivos especialmente relevantes para explicar las principales
transiciones en la historia evolutiva: entre ellos la simbiosis (de la que también saben mucho las
bacterias).

variación sucede por recombinación en la reproducción y/o por mutaciones aleatorias, la
selección retentiva se manifiesta en el diferencial reproductivo de cada individuo, es decir,
en su capacidad efectiva de reproducción en comparación con el resto de los individuos
de la población y los recursos ecológicos que comparten. La evolución por herencia
vertical permite trazar un árbol genealógico de las variaciones genéticas retenidas y sus
respectivos linajes y recorrer así el camino de vuelta hasta nuestro orígenes evolutivos.
De acuerdo a Woese (2002) sin embargo, las raíces del árbol filogenético universal no
existirían: en su lugar una charca de material genético compartido entre innumerables
células en evolución cooperativa. Se trata de la evolución por transferencia genética
horizontal (TGH) en la que la variación sucede por transferencia de material genético
entre iguales (no entre generaciones): las bacterias, seres vivos unicelulares, intercambia
su código genético.

Según la teoría neodarwinista las mutaciones son el origen y causa directa del
cambio evolutivo, pero no son en absoluto el mecanismo de fijación del cambio. Lo que
fija unos cambios y elimina otros es la selección natural. Puede nacer una gacela con
algún tipo de gen ventajoso, pero si justo al levantar la cabeza se la come un depredador,
adiós mutación ventajosa. Hacen falta múltiples generaciones para que vía selección
natural, se fije una mutación evolutivamente hablando. La transferencia horizontal no
encaja en absoluto en este esquema, ya que es en si misma un mecanismo de fijación del
cambio. La selección natural actúa después de haberse fijado el cambio. Por ejemplo, en
el caso de la resistencia a antibióticos, las secuencias de ADN/ARN utilizadas para hacer
frente a un antibiótico no se fija por reproducción diferencial de la bacteria que tenga el
gen adecuado, sino porque esta bacteria tiene además la capacidad para enviar cientos
de miles de copias de la secuencia genética al medio. Se genera, así, un proceso
masivamente paralelo y distribuido en que se reparten innumerables copias de un gen de
resistencia y en el que las bacterias receptoras pueden incorporar a su metabolismo el
nuevo gen al momento. Esto sucede gracias a la flexibilidad bacterian a nivel de
estructura genética que permite absorber nueva información genética sin provocar una
crisis organizativo-metabólica.

En el caso de la TGH se trata de un mecanismo evolutivo en el que se fusionan
comunicación y metabolismo; un mecanismo evolutivo en red que conecta a los más
abundantes, los primeros y más importantes seres vivos del planeta: las bacterias. Como
bien señala Woese la evolución celular no pudo ser de otro modo:

“Evolving the cell requires evolutionary invention of unprecedented novelty and variety, the
likes of which cannot be generated by any familiar evolutionary dynamic. The task can be
complished only by a collective evolution in which many diverse cell designs evolve
simultaneously and share their novelties with one another; which means that (i) HGT (and a
genetic lingua franca) is a necessary condition for the evolution of cell designs, and (ii) a cell
design cannot evolve in isolation; others will necessarily accompany it.” (Woese, 2002: 8745).


Cooperación sin mando, redes bacterianas evolutivas

Al hablar de bacterias lo primero que tenemos que hacer es quitarnos de la cabeza su
mala reputación. Lo cierto es que la imagen pública de la bacteria se parece mucho a la
del hacker: salen a la luz pública sólo aquellos que producen males o amenazan el poder
de ciertos organismos (sean éstos biológicos o institucionales) y se consideran por tanto
patógenos. Sin embargo la inmensa mayoría trabajan silenciosamente por mantener la
biosfera y la tecnosfera funcionando. Para hacernos una idea de la magnitud de nuestra
dependencia de las bacterias baste decir que "nuestros cuerpos se componen de mil
billones de células animales y de cien mil billones (100 000 000 000 000 000) de células
bacterianas." (Margulis & Sagan 1987: 85).

Entre otras cosas debemos a las bacterias la invención del sexo, la respiración, la
fotosíntesis y la mayoría de las técnicas de ingeniería genética que constituyen la vida hoy
en día tanto dentro como fuera de los laboratorios biotecnológicos. "Por medio de
constantes y rápidas adaptaciones a las condiciones ambientales, los organismos del
microcosmos son el pilar en que se apoya la biota entera, ya que su red de intercambio
global afecta, en última instancia, a todos los seres vivos del planeta" (Margulis & Sagan
1987: 50). Las bacterias también son responsables de la fijación y mantenimiento de la
atmósfera (que mantienen en equilibrio químico —entre otras cosas las bacterias fijaron el
Nitrógeno), de la descomposición de cuerpos orgánicos y la fijación de los grandes
yacimientos de oro y hierro en la tierra. En general las bacterias mantienen la diversidad
bioquímica de la que dependemos el resto de los organismos vivos: "las bacterias forman
un sistema regulador planetario cuyo efecto específico es estabilizar las proporciones de
gases atmosféricos reactivos y cuyo resultado general es mantener la Tierra habitable."
(Margulis & Sagan 1987: 110).

fig5


FIGURA 5: Fotos de bacterias a través del microscopio
electrónico.

Características de las redes bacterianas

Como hemos adelantado anteriormente las redes de intercambio genético horizontal entre
bacterias permite un tipo de evolución cooperativa muy diferente a la darwiniana.
Conviene adentrarse en algunas características específicas de estas redes (como redes
de intercambio de código abierto) para comprender su funcionamiento y su alcance
evolutivo.

La comunicación bacteriana se constituye básicamente a través de tres
mecanismos fundamentales de transmisión genética (Iáñez Pareja, 1998):

.
Conjugación: La conjugación bacteriana es el proceso de transferencia de
información genética desde una bacteria donadora a otra receptora, promovido por
determinados tipos de plásmidos. En este proceso, se crea un tubo que conecta a las
dos bacterias, a través del cual la donante transfiere una copia de su ADN,
sustituyendo parte del ADN de la receptora.
.
Transducción: En este caso la transmisión de código genético de una bacteria a otra,
se produce de forma indirecta a través de un intermediario, usualmente virus
bacteriófagos que inyectan código genético en las bacterias receptoras. El ADN vírico
se integra en el ADN bacteriano, y se expresará dependiendo de la naturaleza del
virus.
.
Transformación: En la transformación, el ADN que ha sido liberado en el entorno por
bacterias muertas, es captado y integrado en el ADN de una bacteria receptora.
Mediante estos mecanismos cualquier bacteria puede compartir información
genética con cualquier otra (aunque sean de cepas independientes). Tanto es así que el
concepto de especie no puede aplicarse a las bacterias. En palabras de Margulis:
"Cualquier bacteria es un organismo, una entidad capaz de llevar la ingeniería genética a
escala global o planetaria". Lo interesante de esta forma de organización colectiva es que
no hay mando central, se trata de un proceso distribuido (no hay una posición privilegiada
de control en toda la red) y en paralelo (se dan muchas transmisiones genéticas al mismo
tiempo).

El resultado es una evolución colaborativa (no competitiva excluyente) ya que el
intercambio es horizontal dentro de la misma generación (no sólo entre generaciones) por
lo que las bacterias no necesitan esperar a la siguiente generación para expresar la
variación genética: pueden interpretar directamente el ADN y producir las proteínas que
ésta codifica.

Adaptativamente hablando es importante subrayar que lo que se transmite en las
redes no son las soluciones directas a un problema metabólico o adaptativo (como
pudiera ser la transferencia directa de proteínas, oxígeno, azúcares, etc. —algo común en
los multicelulares) sino las instrucciones para producir esa solución. Esto quiere decir que
el mecanismo evolutivo de transferencia genética horizontal no genera dependencias
funcionales entre sistemas autónomos (bacterias); aunque estas dependencias
funcionales puedan aparecer a otros niveles. En este sentido las redes bacterianas son
verdaderas redes de transferencia de código abierto: es decir una red de intercambio de
instrucciones de soluciones ejecutables por cualquier miembro de la red. Instrucciones
que, a diferencia de lo que sucedería en una red de transmisión de soluciones finales
inmodificables, pueden ser modificadas y copiadas fácilmente generando un proceso
colectivo de adaptación. En otras palabras: la autonomía metabólica y adaptativa de
las bacterias (sistemas vivos mínimos) es amplificada a través de una red de
comunicación (TGH) en la que estructuras molde (templates) son transferidas e
interpretadas por los sistemas autónomos que ellas mismas codifican.

Además el funcionamiento global de las redes bacterianas se basa en el reciclaje y
en la compatibilidad y regulación de recursos ecológicos transformando el ambiente para crear condiciones colectivas de supervivencia, una especie de estigmergia biotecnológica
en la que la transformación del entorno por algunas bacterias genera recursos
bioquímicos que a su vez son explotados por otras que a su vez transforman el entorno....

Todo esto da lugar a un proceso que, lejos de someter la autonomía individual de
las bacterias a un bien colectivo, permite un aumento ilimitado de la autonomía metabólica
individual a través de la TGH y de los efectos globales que las redes bacterianas generan
en el entorno.

Trabajo en equipo

Las bacterias funcionan también en equipos en los que se da una espontánea división del
trabajo ya que el material genético que almacena una única bacteria no es siempre
suficiente para generar sus condiciones de automantenimiento: así las bacterias se alían
en grupos que producen enzimas y compuestos colaborativamente:

"Debido a que su reducido número de genes la hace deficiente en sus capacidades
metabólicas, una bacteria equivale necesariamente al jugador de un equipo; en la naturaleza
nunca funciona como un individuo único. En cambio en cualquier nicho ecológico dado
conviven equipos de varios tipos de bacterias, respondiendo y reformando el medio ambiente,
al contribuir cada uno con enzimas complementarias. Los distintos tipos de bacterias del
equipo, presente cada uno con numerosos ejemplares, coordinan la liberación de sus enzimas
según las fases de un proceso. Sus ciclos vitales se entrelazan y los productos residuales de
un tipo sirven de nutrientes al siguiente. Las bacterias, actuando cada tipo distinto como una
rueda de un engranaje, ocupan su medio ambiente y lo alteran radicalmente. En cantidades
enormes y variables, realizan tareas que individualmente no podrían llevar a cabo." (Margulis
& Sagan 1987: 107)

fig6
FIGURA 6: Formaciones fractales de colonias bacterianas.

Los comportamientos que emergen a nivel colectivo son claves para entender el
mundo bacteriano. No podemos entender a las bacterias analizándolas a nivel puramente
individual, sino que debemos fijar especialmente nuestra atención en sus
comportamientos grupales. En los comportamientos que emergen bottom-up (de abajoarriba), de la interacción y comunicación de proceso masivamente paralelo y distribuido,
siguiendo reglas simples pero muy especiales, y que pueden ser explicados a través del
concepto de fenómeno emergente, que permite superar las posibles confusiones entre
nivel individual y colectivo4.

En definitiva, las bacterias, en la realización de su metabolismo y en el intercambio
genético, provocan dos fenómenos extraordinarios: a) realizan una red evolutiva
horizontal que aumenta la autonomía de cada una de la bacterias al tiempo que permite
una adaptabilidad y una robustez colectiva sin precedentes; y b) generan un entorno de
recursos colectivos que sustenta a todo el planeta. Y todo esto de forma paralela,
distribuida, cooperativa y sin mando.

Evolución bacteriana y tecnologías de vida artificial

La evolución bacteriana por transferencia genética horizontal es tan exitosa que ha
empezado a implementarse en tecnologías de vida artificial para diseñar sistemas
complejos.

Furuashi y otros (1994) se inspiraron en el mecanismo bacteriano denominado
transducción para su aplicación en la robótica, concretamente en la búsqueda de reglas
difusas para que un robot pudiera evitar obstáculos. Inman Harvey de la Universidad de
Sussex publicó en 1996 lo que denominó "algoritmo evolutivo microbiano" basándose en
la conjugación bacteriana (Harvey 1996). Borges y Costa introdujeron en 1999 la
transposición como nuevo operador genético (Borges & Costa 1999) para los algoritmos
genéticos (algoritmos evolutivos artificiales —GA de ahora en adelante: genetic
algorithm). La idea básica es que el intercambio de instrucciones exitosas para la solución
de un problema (evolución bacteriana) puede resultar en un mecanismo evolutivo más
eficaz y rápido que guardar esas instrucciones para alcanzar un mayor éxito reproductivo
comparativo (evolución darwiniana). A partir de la formalización abstracta (en forma de
algoritmos y operadores genéticos) de estos principios evolutivos inspirados en las redes
bacterianas no han dejado de aplicarse a entornos de programación y de robótica
evolutiva. Así, recientemente, Kubik (2003) lo ha usado recientemente para desarrollar el
aprendizaje en una comunidad de robots.

Disponemos de modelos de vida artificial que permiten entender de forma diáfana(e interactiva) como
se desarrolla un fenómeno emergente (FE) ya que lo reconstruyen y permiten variar las condiciones en
que se desarrolla. Es el caso del paradigmático modelo de formación de bandadas virtuales de avoides
de Craig Reynolds, que ha inspirado decenas de implementaciones: http://www.red3d.com/cwr/boids.
Otro ejemplo de FE del que disponemos de modelos informáticos son los atascos de tráfico, que ilustran
las diferencias entre los comportamientos de nivel grupal del atasco de tráfico y el nivel individual de
cada uno de los agentes que forman ese grupo los vehículos. Si uno observa este peculiar automáta
celular on-line que simula el tráfico de vehículos (http://rcswww.urz.tu-dresden.de/helbing/RoadApplet)
podrá percibirse de que mientras los vehículos se mueven hacia delante, los atascos de tráfico que se
producen, el FE resultante de observar esos mismos vehículos a nivel global como un bloque, se
mueven hacia atrás.


La simbiosis entre evolución bacteriana y vida artificial nos permite implementar
soluciones algorítmicas inspiradas en las redes bacterianas, y al mismo tiempo, en un
bucle que se retroalimenta incesantemente, nos permite comprender mejor las
tecnologías del mundo bacteriano.

Otros modelos de VA permiten también adentrarse en la comprensión de los
mecanismos que operan en las redes bacterianas. Es el caso de los autómatas celulares
que, cada vez más observados como máquinas virtuales de proceso masivamente
paralelo, descentralizado y discreto, representan también una vía interesante de
comprensión del mundo celular y bacteriano como muestra Capcarrere (2002).

Estamos ante un panorama prometedor que abre nuevas vías de investigación, sin
olvidamos que estamos aún en las primeras fases de comprensión de la evolución en las
redes bacterianas. En este sentido, debemos resaltar las cuestiones que nos plantea el
trabajo de Ben-Jacob y Shapiro. Ben-Jacob se pregunta sobre cómo deben funcionar
estas redes, que denomina redes genómicas creativas, que no solo reconstruyen
continuamente su software sino también su hardware (Ben-Jacob 1998).

Autonomía: biología, tecnología y cognición

Ya hemos dicho que nuestra profundización en la microestructura del metabolismo y la
comunicación en la biosfera venía motivada por una reutilización del andamiaje
conceptual allí desarrollado en la esfera tecnológica. Se trata entonces de matizar en qué
sentido puede hablarse de autonomía, redes cooperativas y evolución en la tecnosfera.

El concepto de autonomía que hemos presentado al principio de este artículo
(basado en la capacidad autoconstructiva, adaptativa e interactiva de los sistemas vivos
mínimos), es sin duda una herramienta útil para entender la libertad humana en términos
positivos como la capacidad de autoconstrucción de uno mismo (frente a otras nociones
negativas de libertad como la no-dependencia o no-limitación)5. La capacidad del ser
humano de ampliar sus posibilidades de acción y de compresión del mundo y de sí mismo
a través de técnicas y artefactos (en un proceso recursivo de autodefinición y generación
de sentidos y prácticas) es análoga a la capacidad de automantenimiento y
autoconstrucción de los sistemas autónomos básicos. Es más, la autonomía tecnocognitiva
del ser humano no podría existir si los humanos, en tanto que organismos
biológicos, no fuéramos a su vez sistemas autónomos multicelulares. La libertad o
autonomía humana entendida de esta manera pasa por comprender el origen
neurobiológico de las capacidades cognitivas humanas y su ampliación y fijación posterior
a través de un entorno tecnológicamente estructurado. Dar cuenta del desarrollo de la
autonomía desde el origen de la vida hasta las sociedades de la información exigiría en
este punto un desarrollo más detallado del salto de la biosfera a la noosfera, de lo
biológico a la cognitivo y de aquí a lo social y a lo tecnológico (introduciendo a su vez
diversas transiciones intermedias: la del origen de la multicelularidad, de la comunicación,
del lenguaje escrito, las matemáticas, la moneda, etc.). Hay sin embargo un cortocircuito
que permitiría hacer una transición rápida entre biología y tecnología y salvar, en
.........
5 Una noción de libertad que ya exploró Foucault (1990) en sus últimos años a través del concepto de
tecnologías del yo, y especialmente a través del estudio de todas las tecnologías (de tipo social) que
convergen en la creación de subjetividades.

cualquier caso, la analogía entre la biosfera y la tecnosfera. En palabras de Álvaro
Moreno:

“(...) sólo los seres humanos han sido capaces de un desarrollo sostenido de instrumentos
técnicos cada vez más complejos, hasta el punto de que el desarrollo de técnicas es la
peculiaridad del estatus biológico del hombre. A diferencia de todos los demás animales, el
hombre ha ido modificando su forma de interacción con la naturaleza mediante la invención de
instrumentos que han actuado como prótesis de sus capacidades biológicas específicas. (...)
En definitiva, la invención acumulativa y acelerada de nuevas técnicas ha actuado como un
continuo desarrollo de prótesis. Bernard Stiegler (1994, 1996) ha denominado a este proceso
epifilogénesis porque es en cierto modo equivalente a la evolución de nuevas capacidades
biológicas, sólo que sobre una permanencia de su estructura básica” (Moreno 2003:21)

En relación a la autonomía básica el desarrollo tecnológico humano aparece como
una extensión protésica de esa capacidad fundamental de automantenimiento y
autoconstrucción. Termodinámicamente hablando podemos incluso afirmar que “de
manera sustancial la tecnología humana se basa en el uso de múltiples unidades
articuladas que encauzan la energía procedente de las más diversas fuentes (unas
ajenas: fuerza muscular animal, saltos de agua, combustibles vegetales; y otras propias:
arcos, resortes, palancas...) para producir trabajo” (Moreno 2003: 24) constriñendo el flujo
de energía para fines propios; de manera análoga a cómo los sistemas autónomos
básicos constriñen los flujos de energía para su automantenimiento. Claro que el uso que
un ser humano hace de un artefacto viene marcado (entre otras cosas) por sus
intenciones y éstas remiten a su vez a la organización cognitiva del ser humano (deseos,
razones, conceptos, etc.). Sin embargo no deberíamos de insistir demasiado en una
separación radical entre cognición y tecnología, entre conciencia y entorno instrumental.
Hay tres razones fundamentales por las que, para los propósitos y el alcance de este
ensayo, podemos justificar una concepción unitaria de la autonomía tecno-cognitiva:

1. Eldesarrollo de las capacidades cognitivas y sociales humanas ha estado
históricamente unido al desarrollo tecnológico: pensemos en la forma en la que la
escritura ha permitido nuevas formas de organización social, nuevas formas de
aprendizaje y herencia cultural a través de los tiempos y de la geografía, o cómo
los instrumentos científicos han permitido una interacción cada vez más precisa
con la naturaleza y a través de esas interacciones el desarrollo de teorías cada vez
más amplias y poderosas (Moreno 2003).

2. El desarrollo de las capacidades cognitivas humanas está ontogenéticamente (a
escala del desarrollo individual) unido a la tecnología. La idea principal es que un
entorno tecnológicamente estructurado actúa como andamiaje sobre el que se
despliegan y se distribuyen los procesos cognitivos humanos (Hutchins 1995, Clark
1997, Clark & Chalmers 1998).

3. En las sociedades del conocimiento esta interrelación entre autonomía cognitiva y
autonomía tecnológica es aún más fuerte, la una no puede entenderse sin la otra
en tanto en cuanto la actividad cognitiva y comunicativa se despliega a través de
artefactos tecnológicos de tipo electrónico-informático.

Lo que venimos a decir, en definitiva, es que el ser humano ha extendido su
autonomía a través de las tecnologías (en sentido amplio, incluyendo al lenguaje y otras
tecnologías culturales) socialmente construidas y transmitidas creando artefactos y
técnicas que permiten ampliar sus capacidades biológicas y su horizonte de acción. Éste proceso sucede de forma análoga a cómo las bacterias han extendido (y siguen
extendiendo) su autonomía adaptativa gracias a las biotecnologías que han creado
colaborativamente y a las transformación colectiva del entorno químico en el que operan.
Al igual que la autonomía termodinámica de los sistemas autónomos básicos se vio
beneficiada en sus posibilidades de expansión a través de su acoplamiento con los
templates, la autonomía tecno-cognitiva humana se ha expandido enormemente con la
introducción de las tecnologías informacionales (escritura, matemáticas, computación,
telecomunicación, etc.). La analogía se hace especialmente evidente en el caso del
software libre y los procesos de innovación cooperativa basados en el código abierto.

Redes tecno-cognitivas de innovación cooperativa.

El escenario evolutivo de las tecnologías

La imagen distorsionada del desarrollo tecno-cognitivo humano como dependiente de
grandes corporaciones y de un mercado competitivo es en cierto modo análoga a la
imagen distorsionada de la evolución biológica centrada en los organismos multicelulares
y en la evolución darwiniana vertical de supervivencia del más apto. Los juegos de suma
no cero (procesos colectivos en los que la colaboración beneficia más que la competición)
son mucho más comunes de lo que la ideología de mercado nos empuja a imaginar. La
evolución tecnológica humana es posible fuera de ese marco capitalista; de hecho la
evolución de la cultura y la tecnología humana es imposible de imaginar y comprender si
no es a través de redes de cooperación y de la libre transmisión de conocimientos y
técnicas.

A diferencia de los recurso termodinámicos (trabajo, tiempo, fuentes de energía,
etc.) los recursos informacionales son, en principio, ilimitados. Las únicas constricciones
que necesariamente operan sobre el flujo de información son las de carácter material; las
de las operaciones físicas (electrónicas, de escritura, sonido, etc.) necesarias para la
copia, transformación y transmisión de significantes. No será hasta muy recientemente en
la historia del desarrollo tecno-cognitivo humano que la introducción de constricciones
sociales (de tipo jurídico, mediático y tecnológico) a la libre circulación de los saberes y
las técnicas genere una escasez artificial que permita el surgimiento de procesos
evolutivos (innovativos) de carácter competitivo. El copyright (originalmente encaminado a
regular la competencia entre imprentas y hoy en día instrumentalizado para asegurar el
beneficio de intermediarios a través del público), las patentes (originalmente
encaminadas a incentivar la publicación de invenciones pero utilizadas hoy en día para
cercar y adueñarse del espacio innovativo), las tecnologías anticopia y en general las
leyes de propiedad intelectual (cada vez más orientadas a criminalizar al público por
compartir la cultura) son las que imponen constricciones añadidas a la libre circulación de
la información para asegurar que el flujo informacional así controlado produzca beneficios
económicos encauzables por corporaciones y organismos que acumulen capital.

Sin embargo el surgimiento de las redes de comunicación y terminales digitales de
información (especialmente internet) ha borrado casi completamente las constricciones
materiales al flujo informacional; posibilitando así un intercambio y transformación de la
información (y las tecnologías y conocimientos así codificables) al margen de los núcleos
de poder con capacidad para controlar las constricciones materiales. En otras palabras:
gracias a la generalización de las TIC ya no hace falta acumular (en forma de dinero,
poder social o militar, etc.) el poder necesario para reproducir y distribuir información ya
que esta no se encuentra ya ligada a un soporte material que es costoso fabricar,
manipular o distribuir. En definitiva el ciberespacio ha posibilitado el (re)descubrimiento de
formas más rápidas y eficaces de innovación cooperativa; entre ellas destaca el modelo
bazar del software libre.


Software libre y software propietario: dos modelos de desarrollo tecnológico.

El software es la forma informacional (codificada generalmente en dígitos binarios) que
toma cualquier tecnología que se implemente en una computadora. Las computadoras
son realizaciones materiales de la Máquina Universal de Turing; artefactos que constriñen
el flujo de energía para poder ejecutar materialmente cualquier máquina digitalmente
codificable. Comprender la dimensión de la invención y construcción de las computadoras
es fundamental: ellas permiten desacoplar el desarrollo de cualquier cálculo o máquina
abstracta del sustrato material que la realiza y a su vez permite realizar en el mismo
artefacto físico un número ilimitado de máquinas. No es por tanto de extrañar que el
incremento del acceso público a las computadoras y su conexión masiva (internet)
suponga una de las transiciones más importantes del desarrollo tecnológico humano
cuyas consecuencias apenas hemos empezado a explorar.

El software se construye generalmente con un lenguaje de programación que
codifica los algoritmos que definen la funcionalidad del programa. Si el programador
conoce un lenguaje de programación será capaz de construir máquinas virtuales en base
a ese lenguaje e interpretar y modificar los programas que otros hayan escrito en él. Sin
embargo las computadoras no “entienden” el lenguaje de programación. Para que un
ordenador ejecute las instrucciones escritas en un lenguaje de programación determinado
es necesario traducir este código de programación a código máquina que es el que
“físicamente” hace funcionar al ordenador. A este proceso de “traducción” de programaen-
código-de-programación (o código fuente) a programa-en-código-máquina (o código
binario) se le llama compilación. Si un programador quiere modificar o comprender el
funcionamiento interno de un programa necesita acceder al código fuente; debido a la
complejidad acumulada en el desarrollo de programas es prácticamente imposible
entender un programa en código máquina, sólo los ordenadores pueden “entender” ese
código al ejecutarlo. Pero las computadoras no son sistemas autónomos, no pueden
“comprender” realmente aquello para lo que sirve el programa, no pueden modificarlo o
mejorarlo, no pueden evaluarlo; en otras palabras “a las computadoras no les preocupan
los programas”. A nosotr*s sí.

La división entre código máquina y código fuente permite separar el desarrollo de
software de su implementación lo que a su vez permite comunicar fácilmente el diseño,
modificarlo, etc. pero también hace posible transmitir (vender, copiar, transferir, etc.)
programas SIN el código fuente; es decir sin tener acceso a su funcionamiento interno.
Esto sería equivalente a que una bacteria le transfiriera a otra algunas proteínas
funcionales para el metabolismo pero sin transferir el código genético que permita
producir esas proteínas. El modelo de desarrollo de software propietario está basado en
tres grados de restricción: patentes (por ahora sólo válidas en los EEUU), copyright sobre
el código fuente y venta exclusiva del código máquina. Se supone que estas restricciones
aseguran un escenario en el que la competición entre diversas empresas incentiva el
desarrollo y la innovación en el ámbito del software; i.e. en el espacio del desarrollo
tecnológico digital del ser humano. Sin embargo las restricciones que sostienen este
modelo de desarrollo limitan enormemente la autonomía de los usuarios de software: las
patentes impiden implementar algoritmos patentados, el copyright impide la libre copia y
circulación del software y el código cerrado impide la modificación y el conocimiento del
verdadero funcionamiento de los programas. Programas que estructuran nuestras
capacidades cognitivas y comunicativas: i.e. nuestra autonomía e identidad.
Indudablemente las corporaciones y multinacionales de desarrollo de software no ignoran
el poder informacional, comunicativo, protocolar y tecnológico que acumulan a través del
diseño del software y lo aprovechan bien para mantener y expandir su dominio.

Existe, sin embargo, un modelo diferente de desarrollo: se trata del modelo bazar
(Raymond 1997) del software libre o software de código abierto. El software libre ha
tenido que tomar una forma legal explícita (el copyleft) para hacer frente a las
restricciones que (desde el modelo de desarrollo propietario del software y de la cultura)
empezaban a imponerse de forma progresivamente más violenta y exhaustiva sobre la
comunidad de desarrolladores y la sociedad en general, como si de una especie de
pensamiento único del desarrollo tecnológico se tratara. El copyleft (o copyright invertido)
se define por una serie de libertades asociadas al programa que se aseguran
instrumentalizando la legislación sobre copyright: "El copyleft usa las leyes sobre
copyright, pero las voltea para que cumplan una finalidad contraria a la que les fue
asignada: en lugar de ser un medio para privatizar software, se convierte en una forma de
mantener el software libre. La idea central del copyleft es dar a todo el mundo el permiso
para usar el programa, copiarlo, modificarlo y distribuir las versiones modificadas, pero no
el permiso para añadir otras restricciones que éstas sobre él." (Stallman 1997). Es decir,
lo único que impide el copyleft (o las formas más radicales de copyleft) es que una obra
derivada de otra copyleft deje de serlo. A través del copyleft se aseguran los cimientos
jurídicos que permitirán el desarrollo de todo un ecosistema cooperativo de desarrollo: la
comunidad del software libre. Junto a la popularización de internet y las computadoras el
copyleft dio lugar al modelo bazar de desarrollo. El modelo bazar se basa en un
desarrollo masivamente paralelo del software a través del intercambio de código entre
programadores y la depuración colectiva del código por parte de los usuarios. Al ser el
código fuente accesible a tod*s y al asegurar el copyleft una distribución y modificación
libre del software, se borran las fronteras entre usuarios y productores, entre proceso de
desarrollo y consumo; fronteras que tanto necesita imponer el modelo de software
propietario para asegurar un flujo unidireccional de capital. El modelo bazar permite
además una mayor diversidad de lineas de desarrollo para un mismo software (ya que
nadie tiene la exclusividad sobre un programa) así como la reutilización de código de
otros programas para desarrollar un tercero (lo que unido a un desarrollo modular permite
a su vez un enorme poder de recombinación).


Las redes bacterianas evolutivas y el modelo bazar del software libre

El modelo bazar del software libre es análogo al modelo evolutivo bacteriano por
TGH. Se trata en definitiva de un modelo evolutivo o innovativo que permite aumentar la
autonomía individual a través de la cooperación colectiva. Redes de intercambio de
información tecnológica (saberes y técnicas, programas y procedimientos, genes y
biotecnología) que aumentan la autonomía individual (human y bacteriana) de forma
cooperativa. Para ello es necesario el código abierto y la creación de redes de
transferencia de información. Pero la evolución bacteriana se caracteriza también por la
producción y mantenimiento de recursos colectivos bioquímicos. Tampoco es ajena la
comunidad del software libre a este fenómeno: servidores compartidos (sourceforge,
savanah), proyectos de documentación libre, comunidades de intercambio y comentarios
de noticias (como slashdot y sus homólogos en otros idiomas ---entre ellos barrapunto, en
castellano) o la internet misma (con todo el desarrollo abierto de protocolos y estándares)
constituyen todo un entorno de recursos colectivos para el desarrollo del software libre y
producidos con software libre; en un proceso de retroalimentación entre desarrollo y
entorno (anillado a múltiples niveles).

Bajo el movimiento de software libre subyace el mismo mecanismo evolutivo distribuido,
horizontal y cooperativo que en las redes bacterianas, un mecanismo de innovación y
aumento de complejidad que es terriblemente eficaz, robusto y que además permite
mantener la autonomía de sus agentes. Un proceso que dió origen y mantiene la
estructura fundamental de la biosfera y la tecnosfera, un proceso en el que el código
abierto entrelaza metabolismo (autonomía) y comunicación.


Bibliografía y referencias

Ben Jacob, E. (1998), Bacterial Wisdom, Gödel's Theorem and Creative Genomic Webs.
Physica A 248:57—76. http://star.tau.ac.il/~inon/wisdom1/preprint.html

Boden, M.A. (1999). Is metabolism necessary? British Journal for the Philosophy of
Science 50: 231—248.

Borges A. & E. Costa (1999) Enhancing Transposition Perfomance. In Proceedings of the

1999 Congress on Evolutionary Computation, Washington, USA, 6-9 July, 1999. pp.

1434—1441. http://eden.dei.uc.pt/~ernesto/EvoCo/papers/papers/1999/cec99_1.pdf

Capcarrere, S. (2002) Cellular Automata and Other Cellular systems: Design & Evolution.

PhD Thesis, Swiss Federal Institute of Technology, Lausanne.

http://lslwww.epfl.ch/~msc/THESIS/thesis.html

Chalmers, D. (1995) Facing up the problem of consciousness. Journal of Consciousness
Studies 2(3):200—19, 1995.

20


Clark, A. (1997) Being There. Putting brain, body and world together again. MIT Press,
Cambridge MA.
Clark, A. & Chalmers, D.J. (1998) The extended mind. Analysis 58:10—23.
Dawkins, R. (1976) El gen egoista. Salvat Editores, 2000.
Eigen M. and P. Schuster. The Hypercycle: A principle of natural self-organization.
Springer, Berlin, 1979.
Eigen, M., Gardiner, W., Schuster, P. & Wincker-Oswatitch, R. (1981) The origin of genetic
information. Scientific American, 244(4): 88—118.

Etxeberria, A., Umerez, J.,& Moreno, A., editors (2000). Communication and Cognition Artificial
Intelligence. Special issue on "The contribution of artificial life and the
sciences of complexity to the understanding of autonomous systems", volume 17 (3
—4).

Foucault, M. (1990) Tecnologías del yo. Barcelona, Paidós.
Guiu, L. (2003) Código abierto y bacterias v0.3. http://astramat.com/alife/bacterias.rtf
Harvey, I. (1996). The microbial genetic algorithm. IEEE Transactions on Systems, Man,


and Cybernetics—Part B: Cybernetics, 26(3):396—407.
Hutchins, E. (1995) Cognition in the Wild. MIT Press, Cambridge MA.
Iáñez Pareja, E., 1998, "Curso de Microbiología general. Genética Bacteriana".

http://www.ugr.es/~eianez/Microbiologia/Programa.htm

Kauffman, S. (1993) The Origins of Order: Self-Organization and Selection in Evolution.
Oxford University Press.

Kubik, A. (2003) Distributed Genetic Algorithm: Learning by Direct Exchange of
Chromosomes. Advances in Artificial Life, Springer-Verlag Heidelberg. pp.346—356.

Moreno, A. & Ruiz-Mirazo, K. (2002) Key issues regarding the origin, nature and evolution
of complexity in nature: information as a central concept to understand biological
organization. Special Issue Emergence 4.1/4.2 : 63—76.

Moreno, A. (2003) Reflexiones críticas sobre la naturaleza humana (con Fukuyama al
fondo). Pasajes 12: 17—25.

Margulis L., (1993) Symbiosis in Cell Evolution: Microbial Communities in the Archean and
Proterozoic Eons. 2d ed., W.H. Freeman, New York.

Margulis, L. & Sagan, D. (1987) Microcosmos. Allen & Unwin, London.

Pattee, H. H. (1995) Evolving self-reference: matter, symbols, and semantic closure.
Communication and Cognition -Artificial Intelligence, 12 (1-2): 9—28.

Raymond, E. (1997) La catedrál y el bazar.
http://sindominio.net/biblioweb/telematica/catedral.html

Ruiz-Mirazo, K. & Moreno, A. (2000). Searching for the Roots of Autonomy: the natural
and artificial paradigms revisited. In Etxeberria et al. (2000), pages 209—228.

Ruiz-Mirazo, K., Peretó, J. & Moreno, A. R (2004) A Universal Definition of Life: Autonomy

21



and Open-ended Evolution. Origins of Life and Evolution of the Biosphere 34(3): 323


346.
Stallman, R. (1997) El proyecto GNU. http://www.gnu.org/gnu/thegnuproject.html

Szostak, J.W., Bartel, D.P. & Luisi, P.L. (2001) Synthesizing Life. Nature 409: 387—390.

Vidal, M. (2000) Cooperación sin mando. Una introducción al software libre.
http://sindominio.net/biblioweb/telematica/softlibre/

Woese, C.L. (2002) On the evolution of cells. Proc. of the National Academy of Sciences,
99(13): 8742—8747.

Agradecimientos

Agradecemos al Medialab de Madrid la invitación al ciclo de conferencias de Metabolismo
y Comunicación y la confianza puesta en nosotros, a sindominio.net por el mantenimiento
de la infraestuctura virtual de Autonomía Situada, por poner en marcha un proyecto en el
que cavemos tod*s y a Jesús Siqueiros por la lectura y los comentarios a un manuscrito
previo de este artículo. Xabier Barandiaran agradece el apoyo económico de la beca de
formación de jóvenes investigadores número BFI03371-AE del Gobierno Vasco.

22