Alberto Rodríguez Barrera MASTICANDO LO QUE LA CIENCIA NO PUEDE

alberto-rodriguez-barrera-11La búsqueda del conocimiento solía comenzar con grandes teorías. Solía. Porque ahora ya puede decirse que comienza con cantidades masivas de data, esas inmensas montañas de información que le están dando una nueva fisonomía a lo que hasta el presente hemos conocido como ciencia. Para el universo del desarrollo genuino de la humanidad se trata de una realidad presente, avasallante, en vías de consolidación, y que se ha comenzado a calificar como la Era del Petabyte, cosa que es una verdadera revolución (sin sombreritos ni cachuchitas de colores).

Y eso implica que vivimos con sensores por todas partes, almacenaje infinito, nubes de procesadores, la habilidad para capturar, guardar y comprender cantidades masivas de data, todo lo cual está cambiando a la ciencia, a la medicina, a los negocios y a la tecnología. Y a medida en que crece la colección de hechos y cifras, sin que nos estemos dando cuenta en su totalidad, también crece la oportunidad de encontrar respuestas a cuestiones fundamentales de la humanidad. Porque en la era de la data grande, más no es solamente más. Más es diferente. Y… vamos por partes.

Sobre las dimensiones

Un terabyte es un disco duro que contiene 200,000 canciones. 20 terabytes es la cantidad de fotografías que suben a Facebook cada mes. 120 terabytes es toda la data e imágenes coleccionada por el telescopio espacial Hubble. 320 terabytes es toda la data que el gran colisionador Hatron producirá cada semana. 460 terabytes es toda la data del tiempo compilada por el National Climatic Data Center estadounidense. 539 terabytes es todos los videos en YouTube. 600 terabytes es la base de datos sobre el genoma de Ancestry.com. Y 1 petabyte es la data procesada por los servidores de Google cada 72 minutos.

Hace 30 años, el estadístico George Box dijo: “Todos los modelos están equivocados, pero algunos son útiles”, y tenía razón, porque no había otra elección. Sólo los modelos, desde ecuaciones cosmológicas hasta teorías del comportamiento humano, parecían consistentemente -aunque imperfectamente- capaces de explicar el mundo que nos rodeaba. Hasta ahora. Hoy, las compañías como Google, que han crecido en una era de abundante data masiva, no tienen necesidad de conformarse con modelos equivocados. En realidad, no tienen que conformarse con ningún modelo.

Hace 60 años, las computadoras digitales hicieron que la información fuera leíble. Hace 20 años, Internet la hizo alcanzable. Hace 10 años, el primer motor de búsqueda hizo una sola base de datos. Ahora Google y compañías de mentalidad similar están escudriñando a través de la era más medida de la historia, tratando este cuerpo masivo como un laboratorio de la condición humana. Son los hijos de la Era del Petabyte.

La Era del Petabyte es diferente porque más es diferente. Los kilobytes se almacenaban en “floppy disks”. Los megabytes se almacenaban en “hard disks”. Los terabytes se almacenan en una alineación de discos. Los petabytes se almacenan en la nube. A medida en que nos movimos en esa progresión, fuimos desde la analogía del archivo a la analogía del gabinete de archivos a la analogía de la librería a… bueno, cuando llegamos al petabyte no había más analogías organizacionales.

En la escala petabyte, la información no es un asunto de simple taxonomía de tres o cuatro dimensiones y orden, sino de estadísticas dimensionalmente agnósticas. Se requiere una aproximación totalmente diferente, una que nos exige perder la atadura de la data como algo que pueda visualizarse en su totalidad. Nos obliga a ver primero la data matemáticamente y establecer luego un contexto para ella. Por ejemplo, Google conquistó el mundo de la publicidad con nada más que matemática aplicada. No pretendió saber sobre la cultura y los convencionalismos de publicidad; sólo asumió que mejor data, con mejores herramientas analíticas, triunfarían. Y Google tenía razón.

La filosofía fundamental de Google es que no sabemos por qué esta página es mejor que esa otra. Si la estadística de los links que entran dice lo que es, eso es suficiente. No se requiere ningún análisis semántico o causal. Por eso es que Google puede traducir lenguajes sin realmente “conocerlos” (dado un igual cuerpo de data, Google puede traducir klingon en farsi tan fácilmente como puede traducir francés al alemán). Y por qué puede aparejar avisos con contenidos, sin ningún conocimiento o presunción sobre los avisos o el contenido.

Hablando en el O’Reilly Emerging Technology Conference el pasado marzo, Peter Norrig, director de investigación de Google, ofreció una actualización de la máxima de George Box: “Todos los modelos están equivocados, y cada vez más puedes tener éxito sin ellos.”

Este es un mundo donde las cantidades masivas de data y la matemática aplicada reemplazan cada otra herramienta que pueda presentarse; de cada teoría sobre el comportamiento humano, desde lingüística a sociología. Olvídese de taxonomía, oncología, y psicología. ¿Quién sabe por qué la gente hace lo que hace? El asunto es que lo hacen, y podemos rastrear y medirlo con una fidelidad sin precedentes. Con suficiente data, los números hablan por sí mismos.

Aunque el gran blanco aquí no es la publicidad. Es la ciencia. El método científico está construido alrededor de hipótesis que pueden probarse. Estos modelos, en su mayor parte, son sistemas visualizados en las mentes de los científicos. Los modelos son entonces probados y los experimentos confirman o falsifican los modelos teóricos sobre cómo funciona el mundo.  Esta es la manera en que la ciencia ha funcionado durante cientos de años.

Los científicos están entrenados para reconocer que correlación no es causación, que no pueden sacarse conclusiones simplemente sobre la base de correlación entre X e Y (puede ser sólo una coincidencia). Lo que debe hacerse es entender el mecanismo subyacente que conecta a los dos. Una vez que se tiene un modelo, pueden conectarse los juegos de data con confianza. Data sin modelo sólo es ruido.

Pero ante la data masiva, esta aproximación a la ciencia -hipótesis, modelo, prueba- se está haciendo obsoleta. Considérese la física: los modelos newtonianos eran crudas aproximaciones a la  verdad (equivocadas a nivel atómico, pero útiles). Hace cien años, la mecánica cuántica estadísticamente basada ofreció un mejor cuadro; pero la mecánica cuántica sigue siendo otro modelo, y como tal también defectuoso, sin duda una caricatura de una más compleja realidad subyacente. La razón por la cual la física se ha deslizado hacia la especulación teórica en torno a grandes modelos unificados n-dimensionados, desde hace unas cuantas décadas (la fase de la “bella historia” de una disciplina hambrienta de data), es que no sabemos cómo manejar los experimentos que falsificarían las hipótesis; las energías son muy altas, los aceleradores demasiado caros, y así sucesivamente.

Ahora la biología va en la misma dirección. Los modelos que nos enseñaron en la escuela sobre genes “dominantes” y “recesivos”, manejando un proceso estrictamente mendeliano, han resultado ser una simplificación aún más grande de la realidad que las leyes newtonianas. El descubrimiento de las interacciones gen-proteína y otros aspectos de epigenética han retado la visión del ADN como destino, y hasta han introducido evidencias de que el ambiente puede influenciar rasgos de herencia, algo anteriormente considerado imposible. En pocas palabras, mientras más aprendemos sobre biología, más lejos nos encontramos de un modelo que pueda explicarlo.

Ahora hay una mejor manera. Los petabytes nos permiten decir: “Correlación es suficiente.” Podemos dejar de buscar modelos. Podemos analizar la data sin hipótesis sobre lo que podría mostrar. Podemos lanzar los números dentro de los más grandes racimos computacionales que el mundo ha visto y dejar que los algoritmos estadísticos encuentren patrones donde la ciencia no puede.

El más práctico ejemplo de esto es la secuenciación de genes de J. Craig Venter. Habilitado por secuenciadores de alta velocidad y supercomputadoras que pueden analizar estadísticamente la data que producen, Venter pasó de secuenciar organismos individuales a secuenciar ecosistemas enteros. En 2005, comenzó a secuenciar mucho del océano, retractando el viaje del Capitán Cook. Y en 2005 comenzó a secuenciar el aire. En el proceso, descubrió miles de especies de bacterias anteriormente desconocidas y otras formas de vida.

Si las palabras “descubrir una nueva especie” le trae a la mente a Darwin y dibujos de pinzones, puede que esté atascado en la vieja manera de hacer ciencia. Venter puede decirle casi nada sobre las especies que encontró. No sabe qué aspecto tienen, cómo viven, y casi nada de su morfología. Ni siquiera tiene su genoma entero. Todo lo que tiene es un “blip” estadístico; una secuencia única que, siendo diferente a cualquier otra secuencia en la base de datos, debe representar una nueva especie.

Esta secuencia puede correlacionar con otras secuencias que se asemejan a aquellas especies sobre las cuales conocemos más. En ese caso, Venter puede adivinar algo sobre los animales; que convierten la luz del sol en energía de una manera particular, o que descienden de un ancestro común. Pero aparte de eso, no tiene mejor modelo de esta especie que lo que Google tiene de tu página MySpace. Es sólo data. Aunque al analizarla con recursos de computación de calidad Google, Venter ha avanzado la biología más que cualquier otro de su generación.

Esta manera de pensar está destinada a ser una corriente principal. En febrero, la National Science Foundation estadounidense anunció el Cluster Exploratory, un programa de fondos para la investigación, diseñado para manejarse sobre una plataforma de computación distribuida a gran escala desarrollada por Google e IBM, conjuntamente con seis universidades piloto. El racimo (cluster) consistirá de 1,600 procesadores, varios terabytes de memoria, y cientos de terabytes de almacenaje, además del software, incluyendo el Google File System, el Tivoli de IBM, y una versión del MapReduce de Google. Los primeros proyectos incluirán simulaciones del cerebro y el sistema nervioso, y otra investigación biológica que está entre el wetware y el software.

Aprender a utilizar una “computadora” de esta escala puede ser retador. Pero la oportunidad es grande. La nueva disponibilidad de inmensas cantidades de data, junto con las herramientas estadísticas para masticar estos números, ofrece toda una nueva manera de entender el mundo. Correlación sustituye a causación, y la ciencia puede avanzar aún sin modelos coherentes, teorías unificadas, y realmente sin ninguna explicación mecánica. No hay razón para aferrarse a las viejas maneras.

Es hora de preguntar: ¿qué puede la ciencia aprender de Google?

Alimentar a las masas

Hoy se utilizan estudios telefónicos para predecir el rendimiento de las cosechas. Una mejor manera es analizar la tierra, el clima y la data satelital. El almanaque del granjero ya es obsoleto.

En octubre pasado, Lanworth, pequeña consultoría de agricultura, no sólo corrigió la proyección estimada del US Department of Agriculture (USDA) para la cosecha de maíz, precisó el margen en alrededor de 200 millones de sacos.  Eso es justo el 1.5 por ciento menos de granos, que causó un incremento del 13 por ciento en precios. Lanworth fue alabada como nuevo oráculo, con los comerciantes pagándole $100 mil al año para predecir las fluctuaciones en trigo y otras cosechas.

El USDA basa sus estimados en cuestionarios y estudios; se llama a los granjeros y se les pregunta qué hay. Lanworth utiliza imágenes satelitales, mapas de tierra digital, y predicciones del tiempo para proyectar cosechas a escala de campos individuales. Hasta observa las condiciones de cultivo y rotación de patrones, combinando todos los números para determinar el rendimiento futuro.

Lanworth, fundada en 2000, comenzó haciendo mapas de predicción de los bosques para administradores de tierra e intereses madereros. Rastrear tendencias requería sólo unas cuantas fotos al año desde el espacio. Pero las cosechas alimentarias son un blanco que se mueve muy rápido. Ahora la compañía clasifica 100 gigas de inteligencia cada día, que se agrega a una base de datos de 50 terabytes. También está asumiendo predicciones de producción mundial (Rusia, Kazatskan, Ucrania, Brasil, Argentina). La compañía espera llegar a la escala petabyte en cinco años, donde se encontrará la cartilla del balance global.

Precisar la física

La más extrema cámara digital hará su demostración en el Large Hadron Collider (LHC) cerca de Ginebra este año. Mientras los rayos de protones corren en direcciones opuestas alrededor de un anillo subterráneo de 17 millas, cruzando y recruzando la frontera franco-suiza en cada circuito, seis detectores de partículas tomarán un billón de “fotos” por segundo de los impactos resultantes. Los efímeros escombros de estas colisiones pueden tener respuestas para las más excitantes preguntas de la física.

El LHC, que estará funcionando 24/7 casi todo el año, generará 10 petabytes de data por segundo. Ese asombroso flujo de información podría instantáneamente abrumar a cualquier tecnología de almacenaje concebible, así es que los filtros de hardware y software reducirán la toma hasta alrededor de los 100 eventos por segundo que sean más prometedores para el análisis. Aún así, el colisionador registrará alrededor de 15 petabytes de data cada año, el equivalente a 15,000 discos duros tamaño petabyte llenos hasta el tope. Escondido en esos 1s y Os podrían estar las extradimensiones del espacio, el misterioso material oscuro perdido, o todo un nuevo mundo de exóticas superpartículas.

Rastrear las noticias

Monitoreando las noticias en línea, aunque usted no lo crea, es posible predecir la violencia y los lugares de desastre. Las noticias, sean buenas o malas, siempre son muchas. Se estiman en 18,000 los websitios en el mundo que publican sucesos al instante en al menos 40 lenguas. Ahí hay alertas tempranos sobre todo, desde desastres hasta inquietudes políticas; si usted pudiera leer la data.

Cuando la Comisión Europea pidió en el 2002 a los investigadores una manera de monitorear las noticias, sólo querían saber qué se decía sobre la Comisión. Se desarrolló un software que monitorea a 1,540 websitios manejando 40,000 artículos diarios. No hay base de datos per se, sólo alrededor de 10 gigabytes de información fluyendo por un algoritmo de aparejamiento de patrones diarios, 3.5 terabytes anuales. Cuando el sistema -Europe Media Monitor, EMM- evolucione para video en línea la dosis diaria de información podría ser medida en terabytes. EMM cuenta el número de historias sobre un tópico dado y busca los nombres de la gente y los lugares para crear racimos geo-etiquetados, como protestas alimentarias en Haití o inquietud política en Zimbague. El incremento de racimos y número de historias señalan un tópico de creciente importancia o severidad. Se busca violencia y desastres naturales y humanitarios.

EMM da instantáneas del ahora. Eric Horvitz de Microsoft Research trabaja con mucha data para las predicciones, tendencias económicas y agresiones entre países, similar a lo que EMM llama detección de tonalidades.

Acelerar juicios

Los abogados ahora contratan mineros de data profesionales para hurgar en discos duros. Hoy un pre-juicio genera casi 10,000 veces más papel que antes. Allá lejos en el siglo 20, cuando la Ford Motor Company fue demandada por la falla de un botón de ignición, hubo que batallar con montañas de páginas de la compañía. Hoy son billones: planes de ingeniería, e-mails, borradores, archivos de data personal, todo de principio a fin.

El diluvio de evidencias ya no es como en el pasado, cuando los litigantes pasaban mucho tiempo cavando en depósitos y documentos llenos de polvo. Ahora se trata de PDFs, e-mails y monitores dobles, ayudados por tecnologías de búsqueda semántica que escanea palabras y frases clave. Dentro de cinco años, los jurados podrían estar riéndose entre dientes sobre los incriminatorios IMs, mensajes de voz, video conferencias y Twitters de un demandado.

Detectar enfermedades

Si se quiere detener un brote de enfermedad hay que actuar rápido, pero la información de salud se mueve muy lentamente. La meta de Essence -Eletronic Surveillance System for the Early Notification of Community-based Epidemics, del Departamento de Defensa estadounidense- es acelerar el tiempo. Essence monitorea el Military Health System, que incluye 400 dependencias alrededor del mundo.

“No hay que ser exactos para detectar las cosas”, dice Jay Mansfield, director de los sistemas de información estratégica en el Global Emerging Infections Surveillance and Response System, una de las agencias que desarrolló Essence. “Pero se necesita ser precisos.” Los informes de cada clínica, doctor y farmacia se discriminan en amplios síndromes de categorías en vez de por enfermedades específicas; un doctor puede diagnosticar bronquitis y otro neumonía, pero a Essence no le importa. Busca enfermedades similares y dónde y cuándo ocurren; es como una alarma que se dispara si hay humo, y se va al sitio a ver qué pasa.

Debido a que cada día llegan 100 megabytes de data, el equipo almacena lo pertinente a 18 meses, alrededor de 2.5 terabytes; a veces es más el humo que el incendio. Una farmacia que está quedando sin antidiarréicos puede indicar un brote de E,coli o una venta de dos-por-uno. Essence se expandió para incluir nuevas fuentes (como radiología y pruebas de laboratorio), lo cual complica la data aún más. Se busca captar los patrones en horas en vez de días. “Detectamos un brote gastrointestinal el Corea”, dice Mansfield, “llamé a mi jefe, y me preguntó: ‘¿Cuándo sucedió?’ Y como Corea está cuatro horas por delante en relación a Washington, Mansfield respondió: ‘Mañana.’ “

Administrar inmensa data

Solía ser que para sacar información útil de una gran cantidad de data confusa, se requerían dos cosas. Primero, una base de datos meticulosamente mantenida, etiquetada, discriminada y categorizada. Y segundo, una computadora gigante para moverse a través de esa data utilizando preguntas detalladas.

Pero cuando los juegos de data llegan a escala petabyte, la vieja manera no es viable. El mantenimiento -etiqueta, discriminación, categorización, repetición- se tragaría todo el tiempo. Y una sola computadora, sin importan cuán grande, no puede procesar tal cantidad de números.

La solución de Google para trabajar con juegos de data colosal es una elegante aproximación llamada MapReduce. Elimina la necesidad de una base de datos tradicional y automáticamente divide el trabajo a través de una granja de servidores de PCs. Para quienes no están dentro de Googleplex, existe una versión de fuente abierta de la librería de sosftware llamada Hadoop.

MapReduce puede manejar casi cualquier tipo de información que se le lance, desde fotos a números telefónicos. ¿Cómo aplasta o reduce Google los números?

1.   Coleccionar
MapReduce no depende de una base de datos tradicionalmente estructurada, donde la información es categorizada a medida que se colecciona. Sólo reúne el texto completo de cada libro que Google ha escaneado.

2.   Mapear
Se escribe una función para mapear la fecha. “Cuenta cada uso de cada palabra en los Google Books.” Esa solicitud es entonces dividida entre todas las computadoras del ejército, y se le asigna a cada agente un trozo de data con qué trabajar. La computadora A tiene La Guerra y la Paz, por ejemplo. Esa máquina sabe qué palabras contiene ese libro, pero no lo que está dentro de Ana Karenina,

3.   Salvar
Cada una de las cientos de PCs haciendo un mapa escribe los resultados para un disco duro local, rebajando el tiempo de transferencia de data. Las computadoras a las que le han sido asignadas funciones de “reduce” agarra las listas de los mapeadores.

4.   Reduce
Las computadoras de Reduce correlacionan las listas de palabras. Ahora sabes cuántas veces es utilizada una palabra particular, y en qué libros.

5.   Solucionar
¿El resultado? Un juego de data sobre tu data. En nuestro ejemplo, la lista final de palabras se almacena separadamente para que pueda ser rápidamente referenciada o preguntada. ¿Cuántas veces menciona Tolstoy Moscú? ¿París?” No se tiene que escarbar entre data no relacionada para obtener la respuesta.

Observar el espacio

El espacio es realmente grande, pero no tanto como para no hacerle un mapa. Clyde Tombaugh descubrió a Plutón tomando fotos y comparándolas para ver qué se había movido, como hacen hoy los astrónomos intercambiando placas digitales para detectar cambiantes fenómenos estelares. Como supernovas y asteroides que vengan hacia la tierra. Controlar todo por imágenes no es tarea fácil.

El primer telescopio que podrá coleccionar toda esa data, el Large Sybptic Survey Telescope (LSST) estará terminado en 2014 sobre el Cerro Pachón, Chile. Tendrá un espejo de 27.5 pies y un campo de visión del tamaño de una luna llena vista desde la tierra. Su cámara digital bajará 3.5 gigapixeles de imágenes cada 17 segundos, números que crecerán muy, muy rápido.

Hasta ahora el intento más grande jamás hecho para catalogar los cielos ha sido el Sloan Digital Sky Survey (SDSS, Nuevo Mexico), que ha bajado alrededor de 25 terabytes de data desde 1998, la mayor parte en imágenes. Ha medido la distancia precisa hasta un millón de galaxias y ha descubierto alrededor de 500,000 quásares. Pero el espejo del SDSS  tiene sólo una décima parte del poder del espejo planificado para el LSST, y su campo de visión utilizable tiene sólo una séptima parte del tamaño. Pero no puede ser utilizado para cubrir imágenes de la noche entera, una y otra vez, para ver las cosas que cambian.

El LSST cubrirá el cielo cada tres días. Y dentro de los petabytes de información que coleccione podrá ver cosas jamás imaginadas; asumiendo que los astrónomos descifren cómo enseñarle a las computadoras a buscar objetos que nadie ha visto jamás. Las imágenes permitirán observar la explosión de supernovas, descubrir cometas y quizás ubicar el asteroide asesino.

Escanear nuestros esqueletos

Los científicos agregarán millones de imágenes para entender cómo envejecemos. ¿Qué se puede aprender de 80 millones de radios X? El secreto del envejecimiento, entre otras cosas.  Con un arsenal de escaneos de tomografías de computadoras, ya se está buscando cómo se gastan los huesos desde adentro.

Funciona así: un escaner CT toma rayos X de superalta resolución de un hueso, luego combina esas imágenes individuales dentro de una estructura tridimensional. Los resultados son increíblemente detallados; un escaneo de un solo segmento del hueso se lleva 30 gigas. En un día de imágenes el laboratorio puede obtener un terabyte de data. Los investigadores también agregan mucha más data, poniendo a trabajar cientos de terabytes. Hasta hoy no se conoce el mecanismo de pérdida ósea.

Predecir el voto

Las encuestadoras utilizan grandes y poderosas bases de datos para identificar nichos políticos y targuetear nuevos partidarios. Catalist, tienda de data de minería política de Washington DC, es una compañía que compiló casi 15 terabytes de data para el año electoral 2008; órdenes de magnitudes más grandes que las disponibles en las bases de datos de hace cuatro años. Las actuales elecciones estadounidenses se miden en petabytes.

Catalist está documentando la actividad política de cada americano desde los 18 años: dónde se registra para votar, cuán fuertemente se identifica con un partido dado, qué temáticas le llevan a firmar peticiones o hacer donaciones. (Voter Vault y Aristotle Inc. son otras dedicadas a esto.) A medida en que crecen las bases de datos, alimentadas por 450 capas de data disponibles, comerciales y privadas, así como por información coleccionada por las campañas, los candidatos pueden targuetear a los votantes desde nichos cada vez más pequeños (cuello azul, cuello blanco, casados, blancos, negros, dueños de casa y de armas, por ingresos…)

Visualizar la data

El reto más grande de la Era del Petabyte no será almacenar toda esa data. Será darle sentido. Martin Wattenberg, matemático y científico de computación del Watson Research Center de IBM, es pionero en el arte de representar y visualizar juegos de data compleja. Many Eyes es el sitio donde los usuarios pueden compartir una dinámica interactiva de gran data. Wattenberg habla de este tema así:

“Puede hablarse de terabytes y exabytes y zetabytes, hasta marearnos. La verdadera vara de medición para mí es cómo se compara con el cliente humano natural, como la suma de todas las palabras que escuchará en toda su vida. Eso es seguramente menos de un terabyte de texto. Más de eso y se vuelve incomprensible para una sola persona, así es que tenemos que ir a otros medios de análisis: gente trabajando junta, o computadoras, o ambas…  El lenguaje es uno de los mejores mecanismos de comprensión de data que tenemos. La información que contiene la literatura o los e-mails, codifica nuestra identidad como seres humanos. El canon literario completo puede ser más pequeño que lo que sale de los aceleradores de partículas o los modelos del cerebro humano, pero el significado codificado dentro de las palabras no puede ser medido en bytes. Está profundamente comprimido. Veinte palabras de Voltaire pueden contener toda una vida de experiencia… Hay algo en la fatalidad que es mágico. La idea de que se puede tener todo en la punta de los dedos y procesarlo de maneras que eran imposibles antes, es increíblemente excitante. Hasta los algoritmos simples son más efectivos cuando se entrenan en grandes juegos…  Pensamos de nuestra era actual como una de entremezclar y aplastar, pero quizás siempre fue así. Sólo puedes hacer ese tipo de análisis cuando tengas el espectro total de la data… Wikipedia también tiene una idea de totalidad. La información ahí también totaliza probablemente menos de un terabyte, pero es inmensa en términos de abarcar el conocimiento humano. Hoy, si analizamos números, hay un millón de maneras para hacer una barra cartilla. Si analizas texto, es difícil. Creo que la única manera de entender mucha de esta data es a través de la visualización…”

Acerca de Alfonso Molina

Alfonso Molina. Venezolano, periodista, publicista y crítico de cine. Fundador de Ideas de Babel. Miembro de Liderazgo y Visión. Ha publicado "2002, el año que vivimos en las calles". Conversaciones con Carlos Ortega (Editorial Libros Marcados, 2013), "Salvador de la Plaza" (Biblioteca Biográfica Venezolana de El Nacional y Bancaribe, 2011), "Cine, democracia y melodrama: el país de Román Chalbaud" (Planeta, 2001) y 'Memoria personal del largometraje venezolano' en "Panorama histórico del cine en Venezuela" (Fundación Cinemateca Nacional, 1998), de varios autores. Ver todo mi perfil
Esta entrada fue publicada en 1 y etiquetada , . Guarda el enlace permanente.

Una respuesta a Alberto Rodríguez Barrera MASTICANDO LO QUE LA CIENCIA NO PUEDE

  1. Jose dijo:

    He leido el articulo del sr. Rodriguez y, aparte de afirmaciones discutibles como que no habian evidencias de la influencia del ambiente sobre la expresion del genoma antes de la secuenciacion del ADN, o que “hasta hoy no se conoce el mecanismo de perdida osea” (2008) ; existe en este y mas en afirmaciones como las citadas, una vision que nos recuerda que “nuestra era de la informacion” podria ser realmente “era de acumulacion de la informacion”, como paso hace unos siglos, en que los monjes y comerciantes acumulaban, transportaban, copiaban informacion pero aun no habia una sistematizacion efectiva para que se desarrollasen nuevas ramas del conocimiento para beneficio universal. Desde una computadora personal hasta las de grandes instituciones de investigacion vemos que el manejo de dicha informacion no sistematizada, es reemplazada hoy por la actividad de los medios de comunicacion masivos, entre otras instituciones, moldeando la opinion y hasta el acceso general a la informacion. Hay quienes opinan que asistimos al despertar de una segunda edad de las tinieblas. Asi como sucedio con la imprenta, esperamos a un nuevo Gutenberg que mejore no solo el almacenamiento (hardware), sino el software de manejo de la informacion que actualmente estamos produciendo. Sin el, seguiremos sumidos en un mundo en que nuestra tecnologia solo sirva para intercambiar fotos, mp3 y mensajes de texto.

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s