jueves, 8 de diciembre de 2011
lunes, 18 de abril de 2011
CHINA LLENA INTERNET DE CLONES
La larga tradición china de copiar productos y tecnologías se ha trasladado a internet. Todos y cada uno de los grandes servicios de la red, desde Google hasta Facebook, tienen al menos un clon chino. Tras años de conflictivas relaciones con las principales webs occidentales, que aceptaron la censura gubernamental a cambio de un acceso vergonzante a su enorme mercado, el Gobierno ya no los necesita: los clones chinos hacen mejor el trabajo. Al mismo tiempo que ofrecen a los ciudadanos las promesas de la sociedad del conocimiento, censuran con eficacia y sin protestas.
China tiene el mayor número de internautas del mundo, con 453 millones, según Internet World Stats, aunque en 2000 apenas eran 22,5 millones. Ante las perspectivas de que un crecimiento tan explosivo creara un enorme mercado de posibles clientes, los grandes de la red de entonces, Yahoo, Microsoft y Google, entraron en el país asiático. El precio para hacerlo estuvo claro desde el principio. Como en cualquier otra parte del mundo, debían de cumplir las leyes locales. El problema es que China tiene leyes poco asimilables a las de una democracia. En pos de la seguridad del Estado, las empresas occidentales tuvieron que bloquear determinados servicios, censurar resultados de búsqueda o instalar sistemas de filtrado de contenidos.
Es el país con el mayor número de internautas: 453 millones
"Todas ellas han tenido que hacer equilibrios entre sus intereses políticos y económicos y los problemas que podrían hacerles daño en otros mercados", dice el director de investigación del Centro Berkman para Internet y la Sociedad de la Universidad de Harvard, Rob Faris. Al aceptar las exigencias de las autoridades chinas, las webs occidentales tuvieron que sufrir las críticas por esa colaboración. "Google ha intentado vivir con la censura a cambio de los beneficios económicos potenciales y luego decidió que no valía la pena. Para ellos, los beneficios no eran tan grandes como para afectar a la situación financiera de la empresa", explica el también miembro de la OpenNet Initiative, dedicada a denunciar la censura en la red. De hecho, Google, cuyo negocio en China apenas le suponía el 1,5% de su facturación, abandonó el país hace ahora un año. Pero otros tienen mucho que perder. "Yahoo ha invertido mucho en China, por lo que tendrá que seguir cumpliendo con los requisitos del gobierno", añade Faris.
Pero el abandono de Google apenas se ha notado. Y es que no hay un clon de Google, hay varios (ver apoyo). El más conocido es Baidu. Fundada por dos jóvenes que habían estudiado en Occidente, esta página es la séptima más visitada del mundo, con 230 millones de visitantes únicos en febrero pasado, según el ranking que mantiene Google, muy por delante de Bing o Twitter. Si se contabilizan las páginas visitadas, 120.000 millones, escalaría a la tercera posición, sólo superada por Facebook y el propio Google.
Y otras páginas occidentales lo han tenido peor que los buscadores. Cuanto más social es un sitio, menos probabilidades de estar en China tiene. YouTube no funciona en el país asiático. Tampoco lo hacen MySpace, Twitter o Facebook. La semana pasada saltó el rumor de que esta estaría preparando su desembarco en China. Según se dijo, sacaría una versión local, sin conexión con el resto del mundo, en colaboración con Baidu. La red social publicó un comunicado negando tal extremo, sólo reconociendo que estaban "estudiando y aprendiendo sobre China, como parte de una evaluación de los posibles enfoques que podrían beneficiar a nuestros usuarios, desarrolladores y anunciantes", dijo un portavoz a AFP. Llama la atención que, sin embargo, Linkedin, una red social más profesional y económica, no tenga estos problemas. Ya cuenta con un millón de usuarios en China.
Las compañías estadounidenses bloquean contenidos y búsquedas
El Gobierno, en un documento poco conocido, plasmó su posición sobre internet el año pasado. En él se recuerda cómo los tres últimos planes quinquenales del Estado dan prioridad al desarrollo de la red como medio para impulsar el avance del país. El documento insiste en el aspecto económico, sin apenas mencionar el lado social o de comunicación de las redes. En lo político, los límites están claros: "Ninguna organización o individuo puede producir, duplicar, anunciar o divulgar información que tenga el siguiente contenido: estar en contra de los principios fundamentales establecidos en la Constitución, poner en peligro la seguridad del Estado, divulgar secretos de Estado, subvertir el poder del Estado y poner en peligro la unidad nacional, el honor y los intereses del Estado; instigar el odio étnico o la discriminación y poner en peligro la unidad étnica; cuestionar la política religiosa del Estado; propagar ideas heréticas o supersticiosas; difundir rumores; o alterar el orden social y la estabilidad", dice el documento. El Estado es omnipresente.
Producción local
Ante este marco difícilmente superable, muchas de las webs occidentales no han querido estar en China. Buscado o no, el Gobierno chino ha creado una situación de autarquía. El país está experimentando lo que los historiadores de la economía llaman un proceso de sustitución de importaciones. Hay una demanda de servicios web que hay que atender y, ante la imposibilidad (política en este caso) de importarlos de fuera, se incentiva la producción local. Creadas por emprendedores que, en su mayoría, han pasado por Silicon Valley o universidades estadounidenses, las páginas chinas no dejan de florecer. Muchas son copias descaradas de las occidentales, pero otras van evolucionando e innovando. El portal Sina.com, por ejemplo, anunció hace unos días que prescinde de la tecnología de Google y usará un buscador propio.
La página de Baidu ya es la séptima más visitada del mundo
"El país está pasando de un modelo de tipo Made in China, en el que lo que aportaban eran fundamentalmente bajos costes laborales unitarios, a un modelo de tipo Engineered in China, en el que aprenden el desarrollo de las fases de verdadero valor añadido", explica el profesor del IE Business School, Enrique Dans. "Hay empresas que han avanzado mucho en ese ciclo y que ahora son modelo de desarrollo tecnológico propio", añade. Para completar el ciclo, como ocurriera en Japón en el siglo pasado, el Estado y las empresas están enviando a los mejores estudiantes a formarse en el extranjero. "En el mundo online, la base de estudiantes chinos en universidades estadounidenses de ingeniería es tan elevada, que la capacidad que el entorno chino ha adquirido para recrear desde un punto de vista técnico un modelo que han visto en algún otro entorno es elevadísima", añade Dans, buen conocedor de la escena china.
China, como hiciera la industria electrónica japonesa, va camino de no necesitar a Occidente para progresar en el desarrollo de internet. ¿El siguiente paso será, como vaticinan algunos, crear una red paralela? "En parte, sí. Para los temas políticamente neutrales todavía hay una sola internet, aunque ya esté partida por el lenguaje. Para el contenido político, China se está moviendo hacia una red independiente", opina Faris.
El gigante de internet sigue creciendo 32 millones de internautas
La población internauta china es la mayor del planeta, y crece a un ritmo de 32 millones de nuevos navegantes al año hasta los 453 millones que tiene en este momento. Casi la mitad de esta cifra se conecta desde el móvil.
8.267.000 kilómetros de cables Según datos del propio Gobierno chino, desde 1997 han desplegado una red de fibra óptica de 840.000 kilómetros y un cableado total de 8.267 millones de kilómetros. 99% cobertura de la red El 99,3% de las ciudades chinas tienen acceso a internet. Un 96%, con banda ancha.
233 millones con móvil El 80% del territorio urbano tiene conexión 3G. Unos 233 millones de chinos se conectan a la red con el móvil.
PUBLICO.ES MIGUEL ÁNGEL CRIADO ALMERÍA 16/04/2011
China tiene el mayor número de internautas del mundo, con 453 millones, según Internet World Stats, aunque en 2000 apenas eran 22,5 millones. Ante las perspectivas de que un crecimiento tan explosivo creara un enorme mercado de posibles clientes, los grandes de la red de entonces, Yahoo, Microsoft y Google, entraron en el país asiático. El precio para hacerlo estuvo claro desde el principio. Como en cualquier otra parte del mundo, debían de cumplir las leyes locales. El problema es que China tiene leyes poco asimilables a las de una democracia. En pos de la seguridad del Estado, las empresas occidentales tuvieron que bloquear determinados servicios, censurar resultados de búsqueda o instalar sistemas de filtrado de contenidos.
Es el país con el mayor número de internautas: 453 millones
"Todas ellas han tenido que hacer equilibrios entre sus intereses políticos y económicos y los problemas que podrían hacerles daño en otros mercados", dice el director de investigación del Centro Berkman para Internet y la Sociedad de la Universidad de Harvard, Rob Faris. Al aceptar las exigencias de las autoridades chinas, las webs occidentales tuvieron que sufrir las críticas por esa colaboración. "Google ha intentado vivir con la censura a cambio de los beneficios económicos potenciales y luego decidió que no valía la pena. Para ellos, los beneficios no eran tan grandes como para afectar a la situación financiera de la empresa", explica el también miembro de la OpenNet Initiative, dedicada a denunciar la censura en la red. De hecho, Google, cuyo negocio en China apenas le suponía el 1,5% de su facturación, abandonó el país hace ahora un año. Pero otros tienen mucho que perder. "Yahoo ha invertido mucho en China, por lo que tendrá que seguir cumpliendo con los requisitos del gobierno", añade Faris.
Pero el abandono de Google apenas se ha notado. Y es que no hay un clon de Google, hay varios (ver apoyo). El más conocido es Baidu. Fundada por dos jóvenes que habían estudiado en Occidente, esta página es la séptima más visitada del mundo, con 230 millones de visitantes únicos en febrero pasado, según el ranking que mantiene Google, muy por delante de Bing o Twitter. Si se contabilizan las páginas visitadas, 120.000 millones, escalaría a la tercera posición, sólo superada por Facebook y el propio Google.
Y otras páginas occidentales lo han tenido peor que los buscadores. Cuanto más social es un sitio, menos probabilidades de estar en China tiene. YouTube no funciona en el país asiático. Tampoco lo hacen MySpace, Twitter o Facebook. La semana pasada saltó el rumor de que esta estaría preparando su desembarco en China. Según se dijo, sacaría una versión local, sin conexión con el resto del mundo, en colaboración con Baidu. La red social publicó un comunicado negando tal extremo, sólo reconociendo que estaban "estudiando y aprendiendo sobre China, como parte de una evaluación de los posibles enfoques que podrían beneficiar a nuestros usuarios, desarrolladores y anunciantes", dijo un portavoz a AFP. Llama la atención que, sin embargo, Linkedin, una red social más profesional y económica, no tenga estos problemas. Ya cuenta con un millón de usuarios en China.
Las compañías estadounidenses bloquean contenidos y búsquedas
El Gobierno, en un documento poco conocido, plasmó su posición sobre internet el año pasado. En él se recuerda cómo los tres últimos planes quinquenales del Estado dan prioridad al desarrollo de la red como medio para impulsar el avance del país. El documento insiste en el aspecto económico, sin apenas mencionar el lado social o de comunicación de las redes. En lo político, los límites están claros: "Ninguna organización o individuo puede producir, duplicar, anunciar o divulgar información que tenga el siguiente contenido: estar en contra de los principios fundamentales establecidos en la Constitución, poner en peligro la seguridad del Estado, divulgar secretos de Estado, subvertir el poder del Estado y poner en peligro la unidad nacional, el honor y los intereses del Estado; instigar el odio étnico o la discriminación y poner en peligro la unidad étnica; cuestionar la política religiosa del Estado; propagar ideas heréticas o supersticiosas; difundir rumores; o alterar el orden social y la estabilidad", dice el documento. El Estado es omnipresente.
Producción local
Ante este marco difícilmente superable, muchas de las webs occidentales no han querido estar en China. Buscado o no, el Gobierno chino ha creado una situación de autarquía. El país está experimentando lo que los historiadores de la economía llaman un proceso de sustitución de importaciones. Hay una demanda de servicios web que hay que atender y, ante la imposibilidad (política en este caso) de importarlos de fuera, se incentiva la producción local. Creadas por emprendedores que, en su mayoría, han pasado por Silicon Valley o universidades estadounidenses, las páginas chinas no dejan de florecer. Muchas son copias descaradas de las occidentales, pero otras van evolucionando e innovando. El portal Sina.com, por ejemplo, anunció hace unos días que prescinde de la tecnología de Google y usará un buscador propio.
La página de Baidu ya es la séptima más visitada del mundo
"El país está pasando de un modelo de tipo Made in China, en el que lo que aportaban eran fundamentalmente bajos costes laborales unitarios, a un modelo de tipo Engineered in China, en el que aprenden el desarrollo de las fases de verdadero valor añadido", explica el profesor del IE Business School, Enrique Dans. "Hay empresas que han avanzado mucho en ese ciclo y que ahora son modelo de desarrollo tecnológico propio", añade. Para completar el ciclo, como ocurriera en Japón en el siglo pasado, el Estado y las empresas están enviando a los mejores estudiantes a formarse en el extranjero. "En el mundo online, la base de estudiantes chinos en universidades estadounidenses de ingeniería es tan elevada, que la capacidad que el entorno chino ha adquirido para recrear desde un punto de vista técnico un modelo que han visto en algún otro entorno es elevadísima", añade Dans, buen conocedor de la escena china.
China, como hiciera la industria electrónica japonesa, va camino de no necesitar a Occidente para progresar en el desarrollo de internet. ¿El siguiente paso será, como vaticinan algunos, crear una red paralela? "En parte, sí. Para los temas políticamente neutrales todavía hay una sola internet, aunque ya esté partida por el lenguaje. Para el contenido político, China se está moviendo hacia una red independiente", opina Faris.
El gigante de internet sigue creciendo 32 millones de internautas
La población internauta china es la mayor del planeta, y crece a un ritmo de 32 millones de nuevos navegantes al año hasta los 453 millones que tiene en este momento. Casi la mitad de esta cifra se conecta desde el móvil.
8.267.000 kilómetros de cables Según datos del propio Gobierno chino, desde 1997 han desplegado una red de fibra óptica de 840.000 kilómetros y un cableado total de 8.267 millones de kilómetros. 99% cobertura de la red El 99,3% de las ciudades chinas tienen acceso a internet. Un 96%, con banda ancha.
233 millones con móvil El 80% del territorio urbano tiene conexión 3G. Unos 233 millones de chinos se conectan a la red con el móvil.
PUBLICO.ES MIGUEL ÁNGEL CRIADO ALMERÍA 16/04/2011
jueves, 3 de marzo de 2011
domingo, 20 de febrero de 2011
EN 2045, LOS COMPUTADORES PENSARÁN SOLOS
La publicación se basa en los cálculos de un experto en la evolución del poder de cómputo.
Durante años, el tema ha servido como materia prima de la ciencia ficción: los computadores evolucionarán a tal punto que adquirirán vida propia y desplazarán a la humanidad. Así ocurre, por ejemplo, en las películas Inteligencia Artificial y Matrix.
Pero apenas unos pocos han planteado, como lo hizo Time esta semana, que el día en que las máquinas piensen por sí mismas podría estar a la vuelta de la esquina.
La prestigiosa revista usó como eje de su artículo de portada a Raymond Kurzweil, un estadounidense que ha dedicado su vida a estudiar, mediante sofisticados cálculos, la evolución del poder de los computadores. Según él, en el 2030 aquellos habrán equiparado en inteligencia al ser humano. Y para el 2045, la inteligencia artificial estará tan desarrollada que será autónoma.
"Para ese año -proyecta Time-, la inteligencia artificial será mil millones de veces más grande que toda la inteligencia humana que existe hoy". A ese momento se lo llama la Singularidad, una idea que cuenta con todo un movimiento de simpatizantes en EE. UU. y hasta una universidad dedicada a estudiarla.
Según sus promotores, una vez se alcance tal nivel, mucho de lo que es imposible actualmente, de acuerdo con estándares humanos, podrá hacerse realidad. La inmortalidad, por ejemplo. Una de las teorías es que con los avances tecnológicos que semejante inteligencia permitirá sería posible trasladar la mente y la conciencia a un computador -o a un robot- y así continuar viviendo por siempre.
"Las fronteras biológicas -permanentes e inevitables- son problemas difíciles pero con solución entre los que siguen la Singularidad. La muerte es uno de ellos. El envejecimiento es una enfermedad como cualquier otra y se puede curar", dice la revista, que corona su artículo con el sugestivo título '2045, el año en que el hombre se vuelve inmortal'.
Por supuesto, a la Singularidad no le faltan críticos. Uno de ellos es Dennis Bray. Sin descartar que los avances tecnológicos permitirán conquistar en el futuro cosas que parecen imposibles, este estudioso cree que los computadores, por más inteligentes que se vuelvan, jamás lograrán alcanzar el grado de complejidad de la mente humana y mucho menos su capacidad de sentir.
"Aunque los componentes biológicos actúan de una manera que se puede comparar con los circuitos electrónicos, son muy diferentes, dada la cantidad de formas y combinaciones que pueden adoptar. Esas combinaciones les dan a los seres vivos una capacidad casi infinita para almacenar información sobre condiciones pasadas y presentes, así como una habilidad única para prepararse hacia el futuro", argumenta Bray.
El corazón del sugestivo artículo no apunta tanto al triunfo de las máquinas sobre los hombres -un veredicto que está por verse- como a la transformación profunda y radical que podría sobrevenir si la ciencia, gracias al poder exponencial de los computadores, evoluciona a tal punto que logra derrotar a la muerte.
"Si yo puedo transferir mi conciencia a un computador, ¿seguiré siendo yo? ¿Quién decide quién se vuelve inmortal?¿Quién decide cuál es la línea entre la inteligencia sensible y la inteligencia insensible? ¿Cuál es el sentido de nuestras vidas al acercarnos a la inmortalidad, la omnisciencia y la omnipotencia? ¿No perdemos la humanidad al derrotar a la muerte?", se pregunta la publicación, por no hablar del desafío que semejante cambio traería a la religión. Todas preguntas, si se cree en las teorías de Kurzweil, que pronto encontrarán respuesta.
Para 'Watson', todo es elemental
Esta semana, en el popular concurso 'Jeopardy', un supercomputador desarrollado por IBM acabó con dos de los mejores competidores del programa de televisión.
La máquina, llamada 'Watson', les ganó en todas las categorías de preguntas (arte, cultura, ciencia y geografía). Diseñado para trabajar en un hospital, 'Watson' entiende conceptos y puede formular hipótesis.
Sergio Gómez Maseri
Corresponsal de EL TIEMPO
Washington
Durante años, el tema ha servido como materia prima de la ciencia ficción: los computadores evolucionarán a tal punto que adquirirán vida propia y desplazarán a la humanidad. Así ocurre, por ejemplo, en las películas Inteligencia Artificial y Matrix.
Pero apenas unos pocos han planteado, como lo hizo Time esta semana, que el día en que las máquinas piensen por sí mismas podría estar a la vuelta de la esquina.
La prestigiosa revista usó como eje de su artículo de portada a Raymond Kurzweil, un estadounidense que ha dedicado su vida a estudiar, mediante sofisticados cálculos, la evolución del poder de los computadores. Según él, en el 2030 aquellos habrán equiparado en inteligencia al ser humano. Y para el 2045, la inteligencia artificial estará tan desarrollada que será autónoma.
"Para ese año -proyecta Time-, la inteligencia artificial será mil millones de veces más grande que toda la inteligencia humana que existe hoy". A ese momento se lo llama la Singularidad, una idea que cuenta con todo un movimiento de simpatizantes en EE. UU. y hasta una universidad dedicada a estudiarla.
Según sus promotores, una vez se alcance tal nivel, mucho de lo que es imposible actualmente, de acuerdo con estándares humanos, podrá hacerse realidad. La inmortalidad, por ejemplo. Una de las teorías es que con los avances tecnológicos que semejante inteligencia permitirá sería posible trasladar la mente y la conciencia a un computador -o a un robot- y así continuar viviendo por siempre.
"Las fronteras biológicas -permanentes e inevitables- son problemas difíciles pero con solución entre los que siguen la Singularidad. La muerte es uno de ellos. El envejecimiento es una enfermedad como cualquier otra y se puede curar", dice la revista, que corona su artículo con el sugestivo título '2045, el año en que el hombre se vuelve inmortal'.
Por supuesto, a la Singularidad no le faltan críticos. Uno de ellos es Dennis Bray. Sin descartar que los avances tecnológicos permitirán conquistar en el futuro cosas que parecen imposibles, este estudioso cree que los computadores, por más inteligentes que se vuelvan, jamás lograrán alcanzar el grado de complejidad de la mente humana y mucho menos su capacidad de sentir.
"Aunque los componentes biológicos actúan de una manera que se puede comparar con los circuitos electrónicos, son muy diferentes, dada la cantidad de formas y combinaciones que pueden adoptar. Esas combinaciones les dan a los seres vivos una capacidad casi infinita para almacenar información sobre condiciones pasadas y presentes, así como una habilidad única para prepararse hacia el futuro", argumenta Bray.
El corazón del sugestivo artículo no apunta tanto al triunfo de las máquinas sobre los hombres -un veredicto que está por verse- como a la transformación profunda y radical que podría sobrevenir si la ciencia, gracias al poder exponencial de los computadores, evoluciona a tal punto que logra derrotar a la muerte.
"Si yo puedo transferir mi conciencia a un computador, ¿seguiré siendo yo? ¿Quién decide quién se vuelve inmortal?¿Quién decide cuál es la línea entre la inteligencia sensible y la inteligencia insensible? ¿Cuál es el sentido de nuestras vidas al acercarnos a la inmortalidad, la omnisciencia y la omnipotencia? ¿No perdemos la humanidad al derrotar a la muerte?", se pregunta la publicación, por no hablar del desafío que semejante cambio traería a la religión. Todas preguntas, si se cree en las teorías de Kurzweil, que pronto encontrarán respuesta.
Para 'Watson', todo es elemental
Esta semana, en el popular concurso 'Jeopardy', un supercomputador desarrollado por IBM acabó con dos de los mejores competidores del programa de televisión.
La máquina, llamada 'Watson', les ganó en todas las categorías de preguntas (arte, cultura, ciencia y geografía). Diseñado para trabajar en un hospital, 'Watson' entiende conceptos y puede formular hipótesis.
Sergio Gómez Maseri
Corresponsal de EL TIEMPO
Washington
jueves, 17 de febrero de 2011
EL MÓVIL EN 2020
Expertos discuten las tendencias en telefonía de la próxima década, pantallas flexibles y servicios inteligentes
Móviles tan finos como el papel. Pantallas flexibles que se estiran y doblan para transformar un teléfono inteligente en una tableta. Microsensores que informan al teléfono del entorno: el humor de su dueño, el estado del tiempo, la localización... así serán los teléfonos en 2020. En el Congreso Mundial del Móvil se ha hablado del futuro. Un grupo de tecnólogos han analizado los caminos por los que podría discurrir la industria del móvil en la próxima década. Y en algo sí han coincidido: los celulares dejarán de ser simples aparatos para ser amigos de compañía.
"Sabrán nuestra localización, nuestro estado de ánimo y nuestras necesidades de productividad. No serán aparatos, serán amigos de bolsillo", dijo John Donovan, director tecnológico de la operadora norteamericana AT&T, quien añadió: "La Red será como oxígeno, irá con nosotros a todas partes". Para demostrarlo enseñó una "zapatilla inteligente", dotada de sensores, conectada a la Red y pensada para controlar la localización de las personas mayores o enviar automáticamente sus constantes vitales a un hospital. "Desde el móvil podremos controlar todos estos aparatos".
Donovan predijo la desaparición del modelo actual de aplicaciones, porque "residirán en la nube", señaló, y apostó por el surgimiento de aparatos en los que las fronteras actuales del hardware desaparecerán. "Veremos televisores que podrán ser teléfonos, móviles que serán grabadores personales o PC que serán teles".
Kristian Ulrich Larsen, diseñador de interacción de 25 años, intentó materializar estas ideas mostrando un concepto de móvil bautizado como flip phone. "Todos los teléfonos inteligentes se parecen ahora demasiado. Con el flip phone queremos cambiar eso". La idea: un celular de tres pantallas flexibles, plegables y convertible en una minitableta con un par de movimientos, ideal para la multitarea, navegar por Internet y leer libros. De momento es solo un concepto, pero Larsen cree que algo parecido se impondrá en unos años.
La visión más futurista la aportó Rich Green, jefe mundial de tecnología de Nokia. Eso sí, las miradas de escepticismo flotaban en el ambiente. En colaboración con la Universidad de Cambridge, Nokia investiga cómo aplicar la nanotecnología a los móviles con el fin de incorporar sensores que los hagan más inteligentes o diseñar pantallas flexibles para convertirlos en relojes y tabletas. El proyecto, denominado Morph, tiene ya dos años de antigüedad. "La confluencia de la nanotecnología, la biología y la telefonía logrará, por ejemplo, que un móvil cambie de color y apariencia en un solo clic".
Sony Ericsson es otro de los fabricantes que cree en la convergencia de equipos. "Una prueba es nuestra última novedad, el Xperia Play, una mezcla de PSP y teléfono", dijo Jan Uddenfeldt, responsable global de tecnología de la compañía. La intervención más provocadora fue la del cofundador de The Astonishing Tribe (TAT), estudio de diseño y tecnología responsable de parte del desarrollo de Android. Hampus Jakobsson cuestionó la evolución de la industria del móvil desde el punto de vista antropológico. "Cada vez pasamos más tiempo colgados de una pantalla. Enviamos un tweet o un SMS en lugar de hablar cara a cara. ¿Es realmente lo que queremos?", preguntó. Y cerró con su respuesta: "Tenemos que diseñar móviles y servicios que nos hagan pasar más tiempo entre nosotros, y menos con las máquinas".
EL PAÍS. MANUEL ÁNGEL MÉNDEZ - Barcelona - 17/02/2011
Móviles tan finos como el papel. Pantallas flexibles que se estiran y doblan para transformar un teléfono inteligente en una tableta. Microsensores que informan al teléfono del entorno: el humor de su dueño, el estado del tiempo, la localización... así serán los teléfonos en 2020. En el Congreso Mundial del Móvil se ha hablado del futuro. Un grupo de tecnólogos han analizado los caminos por los que podría discurrir la industria del móvil en la próxima década. Y en algo sí han coincidido: los celulares dejarán de ser simples aparatos para ser amigos de compañía.
"Sabrán nuestra localización, nuestro estado de ánimo y nuestras necesidades de productividad. No serán aparatos, serán amigos de bolsillo", dijo John Donovan, director tecnológico de la operadora norteamericana AT&T, quien añadió: "La Red será como oxígeno, irá con nosotros a todas partes". Para demostrarlo enseñó una "zapatilla inteligente", dotada de sensores, conectada a la Red y pensada para controlar la localización de las personas mayores o enviar automáticamente sus constantes vitales a un hospital. "Desde el móvil podremos controlar todos estos aparatos".
Donovan predijo la desaparición del modelo actual de aplicaciones, porque "residirán en la nube", señaló, y apostó por el surgimiento de aparatos en los que las fronteras actuales del hardware desaparecerán. "Veremos televisores que podrán ser teléfonos, móviles que serán grabadores personales o PC que serán teles".
Kristian Ulrich Larsen, diseñador de interacción de 25 años, intentó materializar estas ideas mostrando un concepto de móvil bautizado como flip phone. "Todos los teléfonos inteligentes se parecen ahora demasiado. Con el flip phone queremos cambiar eso". La idea: un celular de tres pantallas flexibles, plegables y convertible en una minitableta con un par de movimientos, ideal para la multitarea, navegar por Internet y leer libros. De momento es solo un concepto, pero Larsen cree que algo parecido se impondrá en unos años.
La visión más futurista la aportó Rich Green, jefe mundial de tecnología de Nokia. Eso sí, las miradas de escepticismo flotaban en el ambiente. En colaboración con la Universidad de Cambridge, Nokia investiga cómo aplicar la nanotecnología a los móviles con el fin de incorporar sensores que los hagan más inteligentes o diseñar pantallas flexibles para convertirlos en relojes y tabletas. El proyecto, denominado Morph, tiene ya dos años de antigüedad. "La confluencia de la nanotecnología, la biología y la telefonía logrará, por ejemplo, que un móvil cambie de color y apariencia en un solo clic".
Sony Ericsson es otro de los fabricantes que cree en la convergencia de equipos. "Una prueba es nuestra última novedad, el Xperia Play, una mezcla de PSP y teléfono", dijo Jan Uddenfeldt, responsable global de tecnología de la compañía. La intervención más provocadora fue la del cofundador de The Astonishing Tribe (TAT), estudio de diseño y tecnología responsable de parte del desarrollo de Android. Hampus Jakobsson cuestionó la evolución de la industria del móvil desde el punto de vista antropológico. "Cada vez pasamos más tiempo colgados de una pantalla. Enviamos un tweet o un SMS en lugar de hablar cara a cara. ¿Es realmente lo que queremos?", preguntó. Y cerró con su respuesta: "Tenemos que diseñar móviles y servicios que nos hagan pasar más tiempo entre nosotros, y menos con las máquinas".
EL PAÍS. MANUEL ÁNGEL MÉNDEZ - Barcelona - 17/02/2011
domingo, 13 de febrero de 2011
CUÁNTA INFORMACIÓN PODEMOS LEER EN INTERNET?
Es evidente que internet ha cambiado de un modo radical la forma en que la gente se relaciona entre sí, el modo en que trabaja o se divierte. Puede parecernos mentira, pero hace sólo 15 años la mayoría de las empresas no utilizaban el correo electrónico como medio natural para enviar y recibir comunicaciones, ni disponían de una página web que les permitiese relacionarse con sus clientes y servir de primera fuente de información para quien quisiese conocer esa compañía o alguno de sus productos o servicios.
Ha cambiado también el modo en que accedemos a la información, y lo ha hecho varias veces en estos últimos años. Para estar informados, antes debíamos esperar al periódico de la mañana (y leer las noticias ocurridas el día anterior), o al telediario de la tarde o de la noche, donde se resume lo acontecido en la mañana o en todo el día. Este modo de recibir la información tiene unas características muy concretas:
Necesita de una demanda activa: hay que ir a comprar el periódico o sentarse frente al televisor
Está limitada a un horario: el periódico aparece por la mañana, no antes, y el informativo es a una hora concreta
Se reciben las noticias decididas por el medio de comunicación escogido: no hay posibilidad de selección
Requiere de atención permantente durante la emisión: si haces otra cosa en ese momento, te pierdes la noticia
No hay un modo establecido para hacerse eco de las noticias recibidas: no se puede volver a ver el informativo
Se limitan las fuentes: no se pueden ver tres o cuatro informativos porque coinciden en el tiempo. Los periódicos cuestan dinero y no todo el mundo puede pagar los seis o siete principales.
La web 0.5
La llegada de la web permitió en primer lugar trasladar a este medio la misma estructura de la información que se tenía en los medios tradicionales. Así, los periódicos digitales eran meros reflejos de la versión en papel, verdadera protagonista de la empresa y única con la que se obtenía una rentabilidad. En esta web 0.5 (la 1.0 vendría después) no hubo ningún cambio significativo en el modo en que se accedía a la información ya que la actualización de contenidos seguía haciéndose por ediciones periódicas. La única ventaja era que no había que acercarse al kiosco si querías ojear las noticias más destacadas del día anterior y que podías acercarte a más medios sin coste.
La web 1.0
Los medios digitales entendieron más tarde que ya no tenían la necesidad de ajustarse a dos o tres ediciones diarias para ofrecer su información. Internet les permitía compartir las noticias en el mismo momento en que las conocían, tal y como hacían los teletipos, pero una vez ampliadas y contrastadas por ellos. Los periódicos digitales eliminaron la necesidad de estar pendientes de los medios a una hora concreta para poder estar informados y dotaron de continuidad a la labor informativa. Ya no había ediciones, sino que podías conectarte cuando quisieras y recibir la información de lo ocurrido hasta ese mismo momento.
Las televisiones no encontraban la manera de encajar sus informativos (el vídeo bajo demanda era impensable por lento y costoso) y ofrecían en su página web una suerte de teletipos.
Aunque ya no había que estar pendiente de acudir a alguna parte o de hacer algo en un momento dado para estar informado, los usuarios empezaban a ser partícipes de la web y no solo consumidores de información. Hablaban por el messenger, se reenviaban largas cadenas de e-mails, comentaban las noticias por otros medios y querían compartirlas.
De todas formas, acceder varias veces al día a varios medios digitales ocupaba mucho tiempo, así que seguía siendo costoso (y un fastidio) obtener mucha información. Los blogs no existían. Solo había páginas personales, con una menor frecuencia de actualización, y esa web se extingue (Geocities cierra hoy sus puertas).
La web 2.0
RSS
Esas necesidades de los usuarios llevaron a permitir los comentarios de las noticias en los medios digitales, y a añadir la opción, por ejemplo, de enviar por e-mail. La aparición del RSS permitió centralizar la información que queríamos recibir. En lugar de acceder varias veces a cada periódico, sólo debíamos acceder a nuestro lector favorito para recibir la información de los medios que previamente habíamos seleccionado. Esto agilizó nuestra manera de recibir la información, permitiéndonos leer más información en menos tiempo. Esta solución supuso una mejora pero enseguida se vislumbró el siguiente paso: ¿por qué voy a leer todas las noticias de un medio si la mayoría no me interesan? (no me interesa el fútbol y es la mitad del periódico, no me interesa la política y es la mitad del periódico, no me interesan los sucesos y son la mitad…, etc.). Así, puedo suscribirme solamente a algunas secciones y a blogs personales que hablan de cosas que me interesan, poniendo en el mismo plano a los medios de comunicación (que antes tenían la exclusiva sobre la difusión) y a las personas. Todos ellos son fuentes de información.
Compartir
Compartir es un pilar fundamental en la web de hoy, y en las fuentes de información ha supuesto un cambio sustancial. La iniciativa necesaria para obtener información ya no es imprescindible, ya que la información llega a nosotros sin que tengamos que ir necesariamente a buscarla. Los medios se diversifican y se popularizan los agregadores de noticias (meneame.net) donde la portada incluye las noticias destacadas y votadas por los propios usuarios, procedan de donde procedan.
Pero además disponemos de google reader donde no solo podemos tener los feeds de medios de comunicación o blogs, sino feeds de agregadores (en una gran vuelta de tuerca), que ya filtran y seleccionan lo más interesante.
Más aún, también tenemos usuarios, amigos a los que conocemos y en cuyos gustos o intereses confiamos. Así, recibimos la información que a ellos les parece interesante, porque la comparten pensando que a nosotoros también nos interesará.
Twitter
Twitter, esa herramienta en principio tan tonta (¿quién va a comentar permanentemente lo que está haciendo? ¿A quién puede interesarle?) ha supuesto una revolución en el modo en que compartimos y recibimos información. Nuevamente por esta vía recibimos únicamente la información que comparten las personas que nosotros hemos seleccionado para seguir. Y si no nos gusta lo que nos envían o si nos deja de gustar, pues simplemente dejamos de seguirles.
Así, el modo en que estamos informados ha cambiado absolutamente:
No necesitamos hacer una búsqueda activa de información. Nos llega de forma pasiva lo que nos interesa.
La información no tiene horarios. Llega en cuanto se produce.
Seleccionamos los medios, o las personas que queremos que nos informen, y sobre lo que queremos ser informados.
No hace falta una atención constante. Podemos leerlo cuando queramos o podamos.
Toda la información recibida puede compartirse con quien queramos por infinidad de medios (agregadores, blogs, redes sociales, etc.)
Podemos acceder a más información: Mejorando el sistema de recepción de información y descartando lo que no consideramos importante o interesante, podemos aumentar el número de noticias o medios que podemos recibir en el mismo tiempo.
Estamos logrando que hay alguna noticia, cuando alguien piensa algo interesante o cuando hay novedades en alguna materia de nuestro interés, nos llegue esa información de forma instantánea sin que tengamos que demandarla. Aún así, no es suficiente. Queremos disponer con el menor esfuerzo posible de toda la información relevante en el menor tiempo posible. ¿Cuánto seremos capaces de mejorar los procesos de acceso a la información? ¿Dónde estará el límite? Con la avalacha de información que supone la simple conexión a internet corremos el riesgo de no leer o no entender nada si estos nuevos procesos no nos ayudan a comprender y relacionar la cantidad de datos que recibimos.
La idea es avanzar hacia una web completamente semántica.
http://eadmon.wordpress.com/2009/10/
Ha cambiado también el modo en que accedemos a la información, y lo ha hecho varias veces en estos últimos años. Para estar informados, antes debíamos esperar al periódico de la mañana (y leer las noticias ocurridas el día anterior), o al telediario de la tarde o de la noche, donde se resume lo acontecido en la mañana o en todo el día. Este modo de recibir la información tiene unas características muy concretas:
Necesita de una demanda activa: hay que ir a comprar el periódico o sentarse frente al televisor
Está limitada a un horario: el periódico aparece por la mañana, no antes, y el informativo es a una hora concreta
Se reciben las noticias decididas por el medio de comunicación escogido: no hay posibilidad de selección
Requiere de atención permantente durante la emisión: si haces otra cosa en ese momento, te pierdes la noticia
No hay un modo establecido para hacerse eco de las noticias recibidas: no se puede volver a ver el informativo
Se limitan las fuentes: no se pueden ver tres o cuatro informativos porque coinciden en el tiempo. Los periódicos cuestan dinero y no todo el mundo puede pagar los seis o siete principales.
La web 0.5
La llegada de la web permitió en primer lugar trasladar a este medio la misma estructura de la información que se tenía en los medios tradicionales. Así, los periódicos digitales eran meros reflejos de la versión en papel, verdadera protagonista de la empresa y única con la que se obtenía una rentabilidad. En esta web 0.5 (la 1.0 vendría después) no hubo ningún cambio significativo en el modo en que se accedía a la información ya que la actualización de contenidos seguía haciéndose por ediciones periódicas. La única ventaja era que no había que acercarse al kiosco si querías ojear las noticias más destacadas del día anterior y que podías acercarte a más medios sin coste.
La web 1.0
Los medios digitales entendieron más tarde que ya no tenían la necesidad de ajustarse a dos o tres ediciones diarias para ofrecer su información. Internet les permitía compartir las noticias en el mismo momento en que las conocían, tal y como hacían los teletipos, pero una vez ampliadas y contrastadas por ellos. Los periódicos digitales eliminaron la necesidad de estar pendientes de los medios a una hora concreta para poder estar informados y dotaron de continuidad a la labor informativa. Ya no había ediciones, sino que podías conectarte cuando quisieras y recibir la información de lo ocurrido hasta ese mismo momento.
Las televisiones no encontraban la manera de encajar sus informativos (el vídeo bajo demanda era impensable por lento y costoso) y ofrecían en su página web una suerte de teletipos.
Aunque ya no había que estar pendiente de acudir a alguna parte o de hacer algo en un momento dado para estar informado, los usuarios empezaban a ser partícipes de la web y no solo consumidores de información. Hablaban por el messenger, se reenviaban largas cadenas de e-mails, comentaban las noticias por otros medios y querían compartirlas.
De todas formas, acceder varias veces al día a varios medios digitales ocupaba mucho tiempo, así que seguía siendo costoso (y un fastidio) obtener mucha información. Los blogs no existían. Solo había páginas personales, con una menor frecuencia de actualización, y esa web se extingue (Geocities cierra hoy sus puertas).
La web 2.0
RSS
Esas necesidades de los usuarios llevaron a permitir los comentarios de las noticias en los medios digitales, y a añadir la opción, por ejemplo, de enviar por e-mail. La aparición del RSS permitió centralizar la información que queríamos recibir. En lugar de acceder varias veces a cada periódico, sólo debíamos acceder a nuestro lector favorito para recibir la información de los medios que previamente habíamos seleccionado. Esto agilizó nuestra manera de recibir la información, permitiéndonos leer más información en menos tiempo. Esta solución supuso una mejora pero enseguida se vislumbró el siguiente paso: ¿por qué voy a leer todas las noticias de un medio si la mayoría no me interesan? (no me interesa el fútbol y es la mitad del periódico, no me interesa la política y es la mitad del periódico, no me interesan los sucesos y son la mitad…, etc.). Así, puedo suscribirme solamente a algunas secciones y a blogs personales que hablan de cosas que me interesan, poniendo en el mismo plano a los medios de comunicación (que antes tenían la exclusiva sobre la difusión) y a las personas. Todos ellos son fuentes de información.
Compartir
Compartir es un pilar fundamental en la web de hoy, y en las fuentes de información ha supuesto un cambio sustancial. La iniciativa necesaria para obtener información ya no es imprescindible, ya que la información llega a nosotros sin que tengamos que ir necesariamente a buscarla. Los medios se diversifican y se popularizan los agregadores de noticias (meneame.net) donde la portada incluye las noticias destacadas y votadas por los propios usuarios, procedan de donde procedan.
Pero además disponemos de google reader donde no solo podemos tener los feeds de medios de comunicación o blogs, sino feeds de agregadores (en una gran vuelta de tuerca), que ya filtran y seleccionan lo más interesante.
Más aún, también tenemos usuarios, amigos a los que conocemos y en cuyos gustos o intereses confiamos. Así, recibimos la información que a ellos les parece interesante, porque la comparten pensando que a nosotoros también nos interesará.
Twitter, esa herramienta en principio tan tonta (¿quién va a comentar permanentemente lo que está haciendo? ¿A quién puede interesarle?) ha supuesto una revolución en el modo en que compartimos y recibimos información. Nuevamente por esta vía recibimos únicamente la información que comparten las personas que nosotros hemos seleccionado para seguir. Y si no nos gusta lo que nos envían o si nos deja de gustar, pues simplemente dejamos de seguirles.
Así, el modo en que estamos informados ha cambiado absolutamente:
No necesitamos hacer una búsqueda activa de información. Nos llega de forma pasiva lo que nos interesa.
La información no tiene horarios. Llega en cuanto se produce.
Seleccionamos los medios, o las personas que queremos que nos informen, y sobre lo que queremos ser informados.
No hace falta una atención constante. Podemos leerlo cuando queramos o podamos.
Toda la información recibida puede compartirse con quien queramos por infinidad de medios (agregadores, blogs, redes sociales, etc.)
Podemos acceder a más información: Mejorando el sistema de recepción de información y descartando lo que no consideramos importante o interesante, podemos aumentar el número de noticias o medios que podemos recibir en el mismo tiempo.
Estamos logrando que hay alguna noticia, cuando alguien piensa algo interesante o cuando hay novedades en alguna materia de nuestro interés, nos llegue esa información de forma instantánea sin que tengamos que demandarla. Aún así, no es suficiente. Queremos disponer con el menor esfuerzo posible de toda la información relevante en el menor tiempo posible. ¿Cuánto seremos capaces de mejorar los procesos de acceso a la información? ¿Dónde estará el límite? Con la avalacha de información que supone la simple conexión a internet corremos el riesgo de no leer o no entender nada si estos nuevos procesos no nos ayudan a comprender y relacionar la cantidad de datos que recibimos.
La idea es avanzar hacia una web completamente semántica.
http://eadmon.wordpress.com/2009/10/
COMPUTACIÓN EN LA NUBE
La computación en la nube, del inglés cloud computing, es un paradigma que permite ofrecer servicios de computación a través de Internet. La "nube" es una metáfora de Internet.Introducción:
En este tipo de computación todo lo que puede ofrecer un sistema informático se ofrece como servicio,[1] de modo que los usuarios puedan acceder a los servicios disponibles "en la nube de Internet"[2] sin conocimientos (o, al menos sin ser expertos) en la gestión de los recursos que usan.[3] Según el IEEE Computer Society, es un paradigma en el que la información se almacena de manera permanente en servidores en Internet y se envía a cachés temporales de cliente, lo que incluye equipos de escritorio, centros de ocio, portátiles, etc. Esto se debe a que, pese a que las capacidades de los PC han mejorado sustancialmente, gran parte de su potencia se desaprovecha, al ser máquinas de propósito general.[cita requerida]
Cloud computing es un nuevo modelo de prestación de servicios de negocio y tecnología, que permite al usuario acceder a un catálogo de servicios estandarizados y responder a las necesidades de su negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o de picos de trabajo, pagando únicamente por el consumo efectuado.
El cambio paradigmático que ofrece cloud computing es que permite aumentar el número de servicios basados en la web. Esto genera beneficios tanto para los proveedores, que pueden ofrecer, de forma más rápida y eficiente, un mayor número de servicios, como para los usuarios que tienen la posibilidad de acceder a ellos, disfrutando de la ‘transparencia’ e inmediatez del sistema y de un modelo de pago por consumo.
Cloud computing consigue aportar estas ventajas, apoyándose sobre una infraestructura tecnológica dinámica que se caracteriza, entre otros factores, por un alto grado de automatización, una rápida movilización de los recursos, una elevada capacidad de adaptación para atender a una demanda variable, así como virtualización avanzada y un precio flexible en función del consumo realizado.
La computación en nube es un concepto que incorpora el software como servicio, como en la Web 2.0 y otros conceptos recientes, también conocidos como tendencias tecnológicas, que tienen en común el que confían en Internet para satisfacer las necesidades de cómputo de los usuarios.
Comienzos :
El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google, Amazon AWS y otros que construyeron su propia infraestructura. De entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos horizontalmente, introducidos como servicios virtuales de TI escalados masivamente y manejados como recursos configurados y mancomunados de manera continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre 2006 en la revista Wired titulado Las fábricas de información. Las granjas de servidores, sobre las que escribió Gilder, eran similares en su arquitectura al procesamiento “grid” (red, parrilla), pero mientras que los grids se utilizan para aplicaciones de procesamiento técnico ligeramente acoplados (loosely coupled un sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una interrelación continua entre ellos), este nuevo modelo de nube se estaba aplicando a los servicios de Internet.
Beneficios :
*Integración probada de servicios Web. Por su naturaleza, la tecnología de Cloud Computing se puede integrar con mucha mayor facilidad y rapidez con el resto de sus aplicaciones empresariales (tanto software tradicional como Cloud Computing basado en infraestructuras), ya sean desarrolladas de manera interna o externa.[5]
*Prestación de servicios a nivel mundial. Las infraestructuras de Cloud Computing proporcionan mayor capacidad de adaptación, recuperación de desastres completa y reducción al mínimo de los tiempos de inactividad.
*Una infraestructura 100% de Cloud Computing no necesita instalar ningún tipo de hardware. La belleza de la tecnología de Cloud Computing es su simplicidad… y el hecho de que requiera mucha menor inversión para empezar a trabajar.
*Implementación más rápida y con menos riesgos. Podrá empezar a trabajar muy rápidamente gracias a una infraestructura de Cloud Computing. No tendrá que volver a esperar meses o años e invertir grandes cantidades de dinero antes de que un usuario inicie sesión en su nueva solución. Sus aplicaciones en tecnología de Cloud Computing estarán disponibles en cuestión de semanas o meses, incluso con un nivel considerable de personalización o integración.
*Actualizaciones automáticas que no afectan negativamente a los recursos de TI. Si actualizamos a la última versión de la aplicación, nos veremos obligados a dedicar tiempo y recursos (que no tenemos) a volver a crear nuestras personalizaciones e integraciones. La tecnología de Cloud *Computing no le obliga a decidir entre actualizar y conservar su trabajo, porque esas personalizaciones e integraciones se conservan automáticamente durante la actualización.
*Contribuye al uso eficiente de la energía. En este caso, a la energía requerida para el funcionamiento de la infraestructura. En los datacenters tradicionales, los servidores consumen mucha más energía de la requerida realmente. En cambio, en las nubes, la energía consumida es sólo la necesaria, reduciendo notablemente el desperdicio.
Capas:
Software como un Servicio (SaaS, sus siglas en inglés)
SaaS se encuentra en la capa más alta y caracteriza una aplicación completa ofrecida como un servicio, en-demanda, vía multitenencia —que significa una sola instancia del software que corre en la infraestructura del proveedor y sirve a múltiples organizaciones de clientes. El ejemplo de SaaS conocido más ampliamente es Salesforce.com, pero ahora ya hay muchos más, incluyendo las Google Apps que ofrecen servicios básicos de negocio como el e-mail. Por supuesto, la aplicación multitenencia de Salesforce.com ha constituido el mejor ejemplo de cómputo en nube durante unos cuantos años. Por otro lado, como muchos otros jugadores en el negocio del cómputo en nube, Salesforce.com ahora opera en más de una capa de la nube con su Force.com, que ya está en servicio, y que consiste en un ambiente de desarrollo de una aplicación compañera (“companion application”), o plataforma como un servicio.
*Plataforma como un Servicio (PaaS sus siglas en inglés)
La capa del medio, o PaaS, es la encapsulación de una abstración de un ambiente de desarrollo y el empaquetamiento de un carga de servicios. La carga arquetipo es una imagen Xen (parte de Servicios Web Amazon) conteniendo una pila básica Web (por ejemplo, un distro Linux, un servidor Web, y un ambiente de programación como Perl o Ruby). Las ofertas de PaaS pueden dar servicio a todas las fases del ciclo de de desarrollo y pruebas del software, o pueden estar especializadas en cualquier área en particular, tal como la administración del contenido.
Los ejemplos comerciales incluyen Google App Engine, que sirve aplicaciones de la infraestructura Google. Servicios PaaS tales como éstos pueden proveer una gran cantidad de flexibilidad, pero puede ser restringida por las capacidades que están disponibles a través del proveedor.
*Infraestructura como un Servicio (IaaS sus siglas en inglés)
IaaS se encuentra en la capa inferior y es un medio de entregar almacenamiento básico y capacidades de cómputo como servicios estandarizados en la red. Servidores, sistemas de almacenamiento, conexiones, enrutadores, y otros sistemas se concentran (por ejemplo a través de la tecnología de virtualización) para manejar tipos específicos de cargas de trabajo —desde procesamiento en lotes (“batch”) hasta aumento de servidor/almacenamiento durante las cargas pico. El ejemplo comercial mejor conocido es Amazon Web Services, cuyos servicios EC2 y S3 ofrecen cómputo y servicios de almacenamiento esenciales (respectivamente). Otro ejemplo es Joyent cuyo producto principal es una línea de servidores virtualizados, que proveen una infraestructura en-demanda altamente escalable para manejar sitios Web, incluyendo aplicaciones Web complejas escritas en Ruby en Rails, PHP, Python, y Java.
Tipos de nubes:
*Las nubes públicas se manejan por terceras partes, y los trabajos de muchos clientes diferentes pueden estar mezclados en los servidores, los sistemas de almacenamiento y otras infraestructuras de la nube. Los usuarios finales no conocen qué trabajos de otros clientes pueden estar corriendo en el mismo servidor, red, discos como los suyos propios.
*Las nubes privadas son una buena opción para las compañías que necesitan alta protección de datos y ediciones a nivel de servicio. Las nubes privadas están en una infraestructura en-demanda manejada por un solo cliente que controla qué aplicaciones debe correr y dónde. Son propietarios del servidor, red, y disco y pueden decidir qué usuarios están autorizados a utilizar la infraestructura.
*Las nubes híbridas combinan los modelos de nubes públicas y privadas. Usted es propietario de unas partes y comparte otras, aunque de una manera controlada. Las nubes híbridas ofrecen la promesa del escalado aprovisionada externamente, en-demanda, pero añaden la complejidad de determinar cómo distribuir las aplicaciones a través de estos ambientes diferentes. Las empresas pueden sentir cierta atracción por la promesa de una nube híbrida, pero esta opción, al menos inicialmente, estará probablemente reservada a aplicaciones simples sin condicionantes, que no requieran de ninguna sincronización o necesiten bases de datos complejas.
Comparaciones:
La computación en nube usualmente es confundida con la computación en grid (red) (una forma de computación distribuida por la que "un súper computador virtual" está compuesto de un cluster enlazado de ordenadores débilmente acoplados, actuando en concierto para realizar tareas muy grandes).
Controversia :
Dado que la computación en nube no permite a los usuarios poseer físicamente los dispositivos de almacenamiento de sus datos (con la excepción de la posibilidad de copiar los datos a un dispositivo de almacenamiento externo, como una unidad flash USB o un disco duro), deja la responsabilidad del almacenamiento de datos y su control en manos del proveedor.
La computación en nube ha sido criticada por limitar la libertad de los usuarios y hacerlos dependientes del proveedor de servicios.[9] Algunos críticos afirman que sólo es posible usar las aplicaciones y servicios que el proveedor esté dispuesto a ofrecer. Así, el London Times compara la computación en nube con los sistemas centralizados de los años 50 y 60, en los que los usuarios se conectaban a través de terminales "gregarios" con ordenadores centrales. Generalmente, los usuarios no tenían libertad para instalar nuevas aplicaciones, y necesitaban la aprobación de administradores para desempeñar determinadas tareas. En suma, se limitaba tanto la libertad como la creatividad. El Times argumenta que la computación en nube es un retorno a esa época.
http://fanny-redessena2008.blogspot.com/
En este tipo de computación todo lo que puede ofrecer un sistema informático se ofrece como servicio,[1] de modo que los usuarios puedan acceder a los servicios disponibles "en la nube de Internet"[2] sin conocimientos (o, al menos sin ser expertos) en la gestión de los recursos que usan.[3] Según el IEEE Computer Society, es un paradigma en el que la información se almacena de manera permanente en servidores en Internet y se envía a cachés temporales de cliente, lo que incluye equipos de escritorio, centros de ocio, portátiles, etc. Esto se debe a que, pese a que las capacidades de los PC han mejorado sustancialmente, gran parte de su potencia se desaprovecha, al ser máquinas de propósito general.[cita requerida]
Cloud computing es un nuevo modelo de prestación de servicios de negocio y tecnología, que permite al usuario acceder a un catálogo de servicios estandarizados y responder a las necesidades de su negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o de picos de trabajo, pagando únicamente por el consumo efectuado.
El cambio paradigmático que ofrece cloud computing es que permite aumentar el número de servicios basados en la web. Esto genera beneficios tanto para los proveedores, que pueden ofrecer, de forma más rápida y eficiente, un mayor número de servicios, como para los usuarios que tienen la posibilidad de acceder a ellos, disfrutando de la ‘transparencia’ e inmediatez del sistema y de un modelo de pago por consumo.
Cloud computing consigue aportar estas ventajas, apoyándose sobre una infraestructura tecnológica dinámica que se caracteriza, entre otros factores, por un alto grado de automatización, una rápida movilización de los recursos, una elevada capacidad de adaptación para atender a una demanda variable, así como virtualización avanzada y un precio flexible en función del consumo realizado.
La computación en nube es un concepto que incorpora el software como servicio, como en la Web 2.0 y otros conceptos recientes, también conocidos como tendencias tecnológicas, que tienen en común el que confían en Internet para satisfacer las necesidades de cómputo de los usuarios.
Comienzos :
El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google, Amazon AWS y otros que construyeron su propia infraestructura. De entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos horizontalmente, introducidos como servicios virtuales de TI escalados masivamente y manejados como recursos configurados y mancomunados de manera continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre 2006 en la revista Wired titulado Las fábricas de información. Las granjas de servidores, sobre las que escribió Gilder, eran similares en su arquitectura al procesamiento “grid” (red, parrilla), pero mientras que los grids se utilizan para aplicaciones de procesamiento técnico ligeramente acoplados (loosely coupled un sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una interrelación continua entre ellos), este nuevo modelo de nube se estaba aplicando a los servicios de Internet.
Beneficios :
*Integración probada de servicios Web. Por su naturaleza, la tecnología de Cloud Computing se puede integrar con mucha mayor facilidad y rapidez con el resto de sus aplicaciones empresariales (tanto software tradicional como Cloud Computing basado en infraestructuras), ya sean desarrolladas de manera interna o externa.[5]
*Prestación de servicios a nivel mundial. Las infraestructuras de Cloud Computing proporcionan mayor capacidad de adaptación, recuperación de desastres completa y reducción al mínimo de los tiempos de inactividad.
*Una infraestructura 100% de Cloud Computing no necesita instalar ningún tipo de hardware. La belleza de la tecnología de Cloud Computing es su simplicidad… y el hecho de que requiera mucha menor inversión para empezar a trabajar.
*Implementación más rápida y con menos riesgos. Podrá empezar a trabajar muy rápidamente gracias a una infraestructura de Cloud Computing. No tendrá que volver a esperar meses o años e invertir grandes cantidades de dinero antes de que un usuario inicie sesión en su nueva solución. Sus aplicaciones en tecnología de Cloud Computing estarán disponibles en cuestión de semanas o meses, incluso con un nivel considerable de personalización o integración.
*Actualizaciones automáticas que no afectan negativamente a los recursos de TI. Si actualizamos a la última versión de la aplicación, nos veremos obligados a dedicar tiempo y recursos (que no tenemos) a volver a crear nuestras personalizaciones e integraciones. La tecnología de Cloud *Computing no le obliga a decidir entre actualizar y conservar su trabajo, porque esas personalizaciones e integraciones se conservan automáticamente durante la actualización.
*Contribuye al uso eficiente de la energía. En este caso, a la energía requerida para el funcionamiento de la infraestructura. En los datacenters tradicionales, los servidores consumen mucha más energía de la requerida realmente. En cambio, en las nubes, la energía consumida es sólo la necesaria, reduciendo notablemente el desperdicio.
Capas:
Software como un Servicio (SaaS, sus siglas en inglés)
SaaS se encuentra en la capa más alta y caracteriza una aplicación completa ofrecida como un servicio, en-demanda, vía multitenencia —que significa una sola instancia del software que corre en la infraestructura del proveedor y sirve a múltiples organizaciones de clientes. El ejemplo de SaaS conocido más ampliamente es Salesforce.com, pero ahora ya hay muchos más, incluyendo las Google Apps que ofrecen servicios básicos de negocio como el e-mail. Por supuesto, la aplicación multitenencia de Salesforce.com ha constituido el mejor ejemplo de cómputo en nube durante unos cuantos años. Por otro lado, como muchos otros jugadores en el negocio del cómputo en nube, Salesforce.com ahora opera en más de una capa de la nube con su Force.com, que ya está en servicio, y que consiste en un ambiente de desarrollo de una aplicación compañera (“companion application”), o plataforma como un servicio.
*Plataforma como un Servicio (PaaS sus siglas en inglés)
La capa del medio, o PaaS, es la encapsulación de una abstración de un ambiente de desarrollo y el empaquetamiento de un carga de servicios. La carga arquetipo es una imagen Xen (parte de Servicios Web Amazon) conteniendo una pila básica Web (por ejemplo, un distro Linux, un servidor Web, y un ambiente de programación como Perl o Ruby). Las ofertas de PaaS pueden dar servicio a todas las fases del ciclo de de desarrollo y pruebas del software, o pueden estar especializadas en cualquier área en particular, tal como la administración del contenido.
Los ejemplos comerciales incluyen Google App Engine, que sirve aplicaciones de la infraestructura Google. Servicios PaaS tales como éstos pueden proveer una gran cantidad de flexibilidad, pero puede ser restringida por las capacidades que están disponibles a través del proveedor.
*Infraestructura como un Servicio (IaaS sus siglas en inglés)
IaaS se encuentra en la capa inferior y es un medio de entregar almacenamiento básico y capacidades de cómputo como servicios estandarizados en la red. Servidores, sistemas de almacenamiento, conexiones, enrutadores, y otros sistemas se concentran (por ejemplo a través de la tecnología de virtualización) para manejar tipos específicos de cargas de trabajo —desde procesamiento en lotes (“batch”) hasta aumento de servidor/almacenamiento durante las cargas pico. El ejemplo comercial mejor conocido es Amazon Web Services, cuyos servicios EC2 y S3 ofrecen cómputo y servicios de almacenamiento esenciales (respectivamente). Otro ejemplo es Joyent cuyo producto principal es una línea de servidores virtualizados, que proveen una infraestructura en-demanda altamente escalable para manejar sitios Web, incluyendo aplicaciones Web complejas escritas en Ruby en Rails, PHP, Python, y Java.
Tipos de nubes:
*Las nubes públicas se manejan por terceras partes, y los trabajos de muchos clientes diferentes pueden estar mezclados en los servidores, los sistemas de almacenamiento y otras infraestructuras de la nube. Los usuarios finales no conocen qué trabajos de otros clientes pueden estar corriendo en el mismo servidor, red, discos como los suyos propios.
*Las nubes privadas son una buena opción para las compañías que necesitan alta protección de datos y ediciones a nivel de servicio. Las nubes privadas están en una infraestructura en-demanda manejada por un solo cliente que controla qué aplicaciones debe correr y dónde. Son propietarios del servidor, red, y disco y pueden decidir qué usuarios están autorizados a utilizar la infraestructura.
*Las nubes híbridas combinan los modelos de nubes públicas y privadas. Usted es propietario de unas partes y comparte otras, aunque de una manera controlada. Las nubes híbridas ofrecen la promesa del escalado aprovisionada externamente, en-demanda, pero añaden la complejidad de determinar cómo distribuir las aplicaciones a través de estos ambientes diferentes. Las empresas pueden sentir cierta atracción por la promesa de una nube híbrida, pero esta opción, al menos inicialmente, estará probablemente reservada a aplicaciones simples sin condicionantes, que no requieran de ninguna sincronización o necesiten bases de datos complejas.
Comparaciones:
La computación en nube usualmente es confundida con la computación en grid (red) (una forma de computación distribuida por la que "un súper computador virtual" está compuesto de un cluster enlazado de ordenadores débilmente acoplados, actuando en concierto para realizar tareas muy grandes).
Controversia :
Dado que la computación en nube no permite a los usuarios poseer físicamente los dispositivos de almacenamiento de sus datos (con la excepción de la posibilidad de copiar los datos a un dispositivo de almacenamiento externo, como una unidad flash USB o un disco duro), deja la responsabilidad del almacenamiento de datos y su control en manos del proveedor.
La computación en nube ha sido criticada por limitar la libertad de los usuarios y hacerlos dependientes del proveedor de servicios.[9] Algunos críticos afirman que sólo es posible usar las aplicaciones y servicios que el proveedor esté dispuesto a ofrecer. Así, el London Times compara la computación en nube con los sistemas centralizados de los años 50 y 60, en los que los usuarios se conectaban a través de terminales "gregarios" con ordenadores centrales. Generalmente, los usuarios no tenían libertad para instalar nuevas aplicaciones, y necesitaban la aprobación de administradores para desempeñar determinadas tareas. En suma, se limitaba tanto la libertad como la creatividad. El Times argumenta que la computación en nube es un retorno a esa época.
http://fanny-redessena2008.blogspot.com/
martes, 8 de febrero de 2011
COMPUTACIÓN EN LA NUBE - LA EMPRESA EN EL AIRE
La computación en la nube -conocida también como cloud computing- parece ser el camino obligado que van a recorrer las empresas de todos los tamaños en materia de tecnología en los próximos diez años. Tan seguro es esto, que Microsoft dedica ya US$6.600 millones anuales al desarrollo de productos y servicios de este tipo, y prácticamente no hay jugador importante en el sector de tecnología para los negocios que no esté concentrado en "la nube".
Lo más interesante en esta tendencia es que llega tanto a las grandes como a las medianas y pequeñas empresas e, incluso, al usuario doméstico de tecnología. Cuando alguien revisa su correo de Hotmail o Yahoo!, o cuando participa en una conferencia web, está accediendo a "la nube". Algunos expertos creen que está cerca el día en que todo el software, tanto el que utilizan las empresas para gestionar los negocios, como el que utiliza la gente para trabajar y divertirse, estará alojado en servidores en internet y no en los computadores personales, y se pagará por su uso tal como pagamos hoy por el agua o la energía. De eso se trata cloud computing, de entregar a terceros el manejo de la tecnología, y acceder a los recursos computaciones (software, infraestructura, almacenamiento, comunicaciones, etc.) a través del navegador de internet. Todo alojado en la red y disponible las 24 horas desde cualquier dispositivo y desde cualquier lugar.
Aunque se trata de una tendencia antigua y con bastantes adeptos, fue desde el año pasado que Pymes de todo el mundo comenzaron a tomar en serio este modelo y cada vez resulta más claro que una buena estrategia de migración a la computación en la nube podría ser el camino hacia el éxito para las pequeñas y medianas empresas, que no disponen del capital suficiente para invertir en tecnología ni infraestructura, pero están en condiciones de pagar una suscripción a los servicios por demanda. No hay que comprar equipos ni servidores, ni costosas licencias de software, ni tener ingenieros que administren todo esto.
Esta es la razón por la que una avalancha de Pymes comenzó desde antes a adoptar servicios de correo electrónico como Gmail o paquetes de ofimática como Microsoft Office Web Applications, alojados en "la nube", administrados por compañías de probada seriedad y disponibles a un bajo costo (a veces gratis). Se ha hablado de esto desde hace muchos años, pero por un conjunto de causas, parece haber llegado al fin la hora de la computación en la nube. "En la medida en que la gente utiliza más internet para hacer cosas cotidianas, tiene mayor confianza para utilizar las tecnologías de cloud", explica Ricardo Marulanda, gerente de nuevas tecnologías de Microsoft en Colombia. Pero la abrazadora cultura de internet de nuestros días no es el único factor que explica el auge.
Las tecnologías de virtualización mejoraron notablemente y los costos de conectarse a internet bajaron lo suficiente en los últimos cinco años, para que consumir la computación como un servicio público y no como una infraestructura propia, comenzase a resultar atractivo. No obstante, a juicio de Juan Carlos Hincapié, gerente de la unidad de servicios de IBM, no se ha llegado al punto necesario para la masificación: "Para potenciar este modelo entre las Pymes, los costos de conectarse tendrán que bajar todavía mucho más", explica. Para este experto, la nube tiene el beneficio de la masa crítica y la economía de escala, por lo que una Pyme encuentra un rápido retorno de la inversión cuando migra sus aplicaciones a este modelo.
Un ejemplo claro es el proceso de backup de la información, el cual implica -cuando se tiene localmente- servidores, licencias y administración muy costosa; contratarlo con una empresa de internet es muy económico (desde US$50 mes) y soluciona rápidamente lo que antes era un problema complicado.
Aunque en Colombia la ola está apenas abriéndose paso, ya pueden identificarse las tendencias principales; Juan David Garzón, de la compañía Avanxo, una consultora especializada en computación en la nube, explica que, en su orden, las demandas principales en esta materia son el correo electrónico (cuya administración bajo el modelo tradicional de servidores propios consume demasiados recursos técnicos y financieros); el control de procesos de venta y servicio al cliente; y los procesos de negocio sencillos que puedan ser manejados con hojas de cálculo y aplicaciones de oficina estándares. Sin embargo, el trabajo más fuerte en una consultoría de este tipo es la gestión del cambio, para implantar en el personal los nuevos procesos. "En el caso de las Pymes resulta muy fácil la migración, mientras suele ser muy complicado en el caso de las grandes empresas", explica Garzón.
El sector gobierno también ha puesto sus ojos en la tendencia de moda. Microsoft ayudó el año pasado al Icfes a implementar una solución en la nube que ilustra bastante bien las bondades del modelo. El Icfes sufre dos veces al año una crecida súbita de consultas en la base de datos, debido a la publicación de los resultados de las pruebas de Estado, un hecho que ocurre solamente en marzo y septiembre, después de las pruebas para los calendarios A y B. Más de 300.000 estudiantes pueden llegar a consultar simultáneamente los resultados, durante apenas unos días.
Evidentemente, un modelo tradicional significaba instalar servidores y desarrollar aplicaciones que estarían subutilizadas el resto del año. La plataforma Azure, de Microsoft, es utilizada ahora para este propósito y el Icfes solo paga por lo que consume de acuerdo con la demanda.
Una solución para administrar la fuerza de ventas provista por Avanxo -creada por la empresa SalesForce- ha sido adoptada por Skandia, la caja de compensación Comfandi y más de 130 Pymes apoyadas por Fomipyme y Proexport. El año pasado, por primera vez una empresa del sector salud puso un pie en "la nube", con la adopción de la plataforma LotusLive, de IBM, para el trabajo colaborativo entre el personal médico de la EPS Occidental de Salud, en Cali.
Citrix, proveedor de soluciones de virtualización de servidores y escritorios, que es la plataforma tecnológica a la base del cloud computing, cuenta con más de 800 clientes en el país. La gerente de canales de Citrix en el país, Joana Jaime, estima que habrá un verdadero boom del cloud computing entre 2012 y 2013.
Computación en la nube parece un hecho irreversible y un asunto de competitividad. Una evidencia de ello es que la mayoría de los ingresos de Microsoft hoy provienen del modelo tradicional (licencias de software), "pero el futuro es 'la nube' y nos estamos adaptando a ese modelo", dice Ricardo Marulanda.
REVISTA DINERO. FEBRERO 7 DE 2011
Lo más interesante en esta tendencia es que llega tanto a las grandes como a las medianas y pequeñas empresas e, incluso, al usuario doméstico de tecnología. Cuando alguien revisa su correo de Hotmail o Yahoo!, o cuando participa en una conferencia web, está accediendo a "la nube". Algunos expertos creen que está cerca el día en que todo el software, tanto el que utilizan las empresas para gestionar los negocios, como el que utiliza la gente para trabajar y divertirse, estará alojado en servidores en internet y no en los computadores personales, y se pagará por su uso tal como pagamos hoy por el agua o la energía. De eso se trata cloud computing, de entregar a terceros el manejo de la tecnología, y acceder a los recursos computaciones (software, infraestructura, almacenamiento, comunicaciones, etc.) a través del navegador de internet. Todo alojado en la red y disponible las 24 horas desde cualquier dispositivo y desde cualquier lugar.
Aunque se trata de una tendencia antigua y con bastantes adeptos, fue desde el año pasado que Pymes de todo el mundo comenzaron a tomar en serio este modelo y cada vez resulta más claro que una buena estrategia de migración a la computación en la nube podría ser el camino hacia el éxito para las pequeñas y medianas empresas, que no disponen del capital suficiente para invertir en tecnología ni infraestructura, pero están en condiciones de pagar una suscripción a los servicios por demanda. No hay que comprar equipos ni servidores, ni costosas licencias de software, ni tener ingenieros que administren todo esto.
Esta es la razón por la que una avalancha de Pymes comenzó desde antes a adoptar servicios de correo electrónico como Gmail o paquetes de ofimática como Microsoft Office Web Applications, alojados en "la nube", administrados por compañías de probada seriedad y disponibles a un bajo costo (a veces gratis). Se ha hablado de esto desde hace muchos años, pero por un conjunto de causas, parece haber llegado al fin la hora de la computación en la nube. "En la medida en que la gente utiliza más internet para hacer cosas cotidianas, tiene mayor confianza para utilizar las tecnologías de cloud", explica Ricardo Marulanda, gerente de nuevas tecnologías de Microsoft en Colombia. Pero la abrazadora cultura de internet de nuestros días no es el único factor que explica el auge.
Las tecnologías de virtualización mejoraron notablemente y los costos de conectarse a internet bajaron lo suficiente en los últimos cinco años, para que consumir la computación como un servicio público y no como una infraestructura propia, comenzase a resultar atractivo. No obstante, a juicio de Juan Carlos Hincapié, gerente de la unidad de servicios de IBM, no se ha llegado al punto necesario para la masificación: "Para potenciar este modelo entre las Pymes, los costos de conectarse tendrán que bajar todavía mucho más", explica. Para este experto, la nube tiene el beneficio de la masa crítica y la economía de escala, por lo que una Pyme encuentra un rápido retorno de la inversión cuando migra sus aplicaciones a este modelo.
Un ejemplo claro es el proceso de backup de la información, el cual implica -cuando se tiene localmente- servidores, licencias y administración muy costosa; contratarlo con una empresa de internet es muy económico (desde US$50 mes) y soluciona rápidamente lo que antes era un problema complicado.
Aunque en Colombia la ola está apenas abriéndose paso, ya pueden identificarse las tendencias principales; Juan David Garzón, de la compañía Avanxo, una consultora especializada en computación en la nube, explica que, en su orden, las demandas principales en esta materia son el correo electrónico (cuya administración bajo el modelo tradicional de servidores propios consume demasiados recursos técnicos y financieros); el control de procesos de venta y servicio al cliente; y los procesos de negocio sencillos que puedan ser manejados con hojas de cálculo y aplicaciones de oficina estándares. Sin embargo, el trabajo más fuerte en una consultoría de este tipo es la gestión del cambio, para implantar en el personal los nuevos procesos. "En el caso de las Pymes resulta muy fácil la migración, mientras suele ser muy complicado en el caso de las grandes empresas", explica Garzón.
El sector gobierno también ha puesto sus ojos en la tendencia de moda. Microsoft ayudó el año pasado al Icfes a implementar una solución en la nube que ilustra bastante bien las bondades del modelo. El Icfes sufre dos veces al año una crecida súbita de consultas en la base de datos, debido a la publicación de los resultados de las pruebas de Estado, un hecho que ocurre solamente en marzo y septiembre, después de las pruebas para los calendarios A y B. Más de 300.000 estudiantes pueden llegar a consultar simultáneamente los resultados, durante apenas unos días.
Evidentemente, un modelo tradicional significaba instalar servidores y desarrollar aplicaciones que estarían subutilizadas el resto del año. La plataforma Azure, de Microsoft, es utilizada ahora para este propósito y el Icfes solo paga por lo que consume de acuerdo con la demanda.
Una solución para administrar la fuerza de ventas provista por Avanxo -creada por la empresa SalesForce- ha sido adoptada por Skandia, la caja de compensación Comfandi y más de 130 Pymes apoyadas por Fomipyme y Proexport. El año pasado, por primera vez una empresa del sector salud puso un pie en "la nube", con la adopción de la plataforma LotusLive, de IBM, para el trabajo colaborativo entre el personal médico de la EPS Occidental de Salud, en Cali.
Citrix, proveedor de soluciones de virtualización de servidores y escritorios, que es la plataforma tecnológica a la base del cloud computing, cuenta con más de 800 clientes en el país. La gerente de canales de Citrix en el país, Joana Jaime, estima que habrá un verdadero boom del cloud computing entre 2012 y 2013.
Computación en la nube parece un hecho irreversible y un asunto de competitividad. Una evidencia de ello es que la mayoría de los ingresos de Microsoft hoy provienen del modelo tradicional (licencias de software), "pero el futuro es 'la nube' y nos estamos adaptando a ese modelo", dice Ricardo Marulanda.
REVISTA DINERO. FEBRERO 7 DE 2011
domingo, 28 de noviembre de 2010
¿QUÉ ES ESO DE TWITTEAR?
Guía sobre el arte del 'microblog', para saber si debe unirse a la segunda red social del planeta.
Aunque Nicolás Negroponte, gurú de la tecnología y padre del proyecto 'Un computador por niño', catalogó a Twitter como "una moda pasajera", lo cierto es que cada vez más personas se unen a esta red (hoy son más de 175 millones), que se ha convertido en un foro mundial para políticos, artistas, medios, empresas y ciudadanos comunes.
¿Quiénes la utilizan? De acuerdo con un informe de las firmas investigadoras Edison Research y Arbitron Internet, los 'twitteros' tienen, en promedio, mayor poder adquisitivo y preparación académica que los usuarios de Facebook. Sobre esto último anota que el 30 por ciento tiene estudios universitarios, 11 puntos porcentuales más que la media estadounidense.
Así mismo, agrega el estudio, Twitter tiene una alta penetración en el creciente mercado de los teléfonos celulares, si se tiene en cuenta que el 63 por ciento de los miembros de esta comunidad acceden a ella mediante sus smartphones.
A continuación, una breve guía ilustrada sobre esta valiosa herramienta de comunicación, para que la entienda y se anime a utilizarla. Puede que, como les ha pasado a millones de internautas en todo el planeta, deje de pensar que es estúpida y aburridora, o que con sólo 140 caracteres no se puede hacer nada útil, a 'twittear' más de diez veces diarias, como los 'profesionales'.
Ofrece mucho más que los 140 caracteres
Además de los 140 caracteres por mensaje, Twitter permite a los usuarios adjuntar direcciones de otras páginas, 'subir' imágenes por medio de Twitgoo o Img.ly y compartir videos con la herramienta TwitVid.
Este 'microblog' también permite declarar la posición geográfica desde el computador o el teléfono celular, que toma directamente las coordenadas del GPS.
Aunque Nicolás Negroponte, gurú de la tecnología y padre del proyecto 'Un computador por niño', catalogó a Twitter como "una moda pasajera", lo cierto es que cada vez más personas se unen a esta red (hoy son más de 175 millones), que se ha convertido en un foro mundial para políticos, artistas, medios, empresas y ciudadanos comunes.
¿Quiénes la utilizan? De acuerdo con un informe de las firmas investigadoras Edison Research y Arbitron Internet, los 'twitteros' tienen, en promedio, mayor poder adquisitivo y preparación académica que los usuarios de Facebook. Sobre esto último anota que el 30 por ciento tiene estudios universitarios, 11 puntos porcentuales más que la media estadounidense.
Así mismo, agrega el estudio, Twitter tiene una alta penetración en el creciente mercado de los teléfonos celulares, si se tiene en cuenta que el 63 por ciento de los miembros de esta comunidad acceden a ella mediante sus smartphones.
A continuación, una breve guía ilustrada sobre esta valiosa herramienta de comunicación, para que la entienda y se anime a utilizarla. Puede que, como les ha pasado a millones de internautas en todo el planeta, deje de pensar que es estúpida y aburridora, o que con sólo 140 caracteres no se puede hacer nada útil, a 'twittear' más de diez veces diarias, como los 'profesionales'.
Ofrece mucho más que los 140 caracteres
Además de los 140 caracteres por mensaje, Twitter permite a los usuarios adjuntar direcciones de otras páginas, 'subir' imágenes por medio de Twitgoo o Img.ly y compartir videos con la herramienta TwitVid.
Este 'microblog' también permite declarar la posición geográfica desde el computador o el teléfono celular, que toma directamente las coordenadas del GPS.
El Tiempo. Tecnología. Noviembre 28 de 2010
martes, 9 de noviembre de 2010
HOMMO SAPIENS DIGITAL
Mark Prensky. 2009
En el 2001, publiqué " Nativos e Inmigrantes digitales, " un artículo bipartito que explicó estos términos como manera de entender las diferencias profundas entre la gente joven y numerosos adultos (Prensky 2001a, 2001b). Si bien muchos han encontrado útiles estos términos; Hoy transitando el Siglo XXI en el que todos habrán crecido en la era de la tecnología digital, la distinción entre Nativos e Inmigrantes digitales llegará a ser cada vez menos relevante. Claramente, como trabajamos para crear y para mejorar el futuro, necesitamos imaginarnos un nuevo sistema de distinciones. Sugiero que pensemos en términos de “Sabiduría Digital”.
La tecnología digital puede hacernos cada vez más sabios.
La sabiduría digital es un concepto doble, refiriéndose primero, a la sabiduría que se presenta del uso de la tecnología, donde nuestra capacidad cognoscitiva llegue más allá de nuestra capacidad natural y en segundo lugar a la sabiduría en el uso prudente de la tecnología para realzar éstas, nuestras capacidades. Gracias a la tecnología, contaremos con información al instante, inmediata, a toda la historia registrada, a bibliotecas, a todos los estudios de casos y a todos los datos recogidos de cualquier índole y sobre todo a experiencias simuladas altamente realistas que facilitarán nuestro trabajo.
La forma en que utilicemos estos recursos, la forma en que los filtremos, para encontrar lo que necesitamos, depende de nosotros, pero concientes que la tecnología es y será un medio de ayuda muy importante en la formación de nuestra sabiduría y así poder tomar decisiones y juicios más acertados. La tecnología por si misma no substituirá la intuición, el buen juicio, la moral y la capacidad para resolver problemas.
Vea el documento completo a continuación...
En el 2001, publiqué " Nativos e Inmigrantes digitales, " un artículo bipartito que explicó estos términos como manera de entender las diferencias profundas entre la gente joven y numerosos adultos (Prensky 2001a, 2001b). Si bien muchos han encontrado útiles estos términos; Hoy transitando el Siglo XXI en el que todos habrán crecido en la era de la tecnología digital, la distinción entre Nativos e Inmigrantes digitales llegará a ser cada vez menos relevante. Claramente, como trabajamos para crear y para mejorar el futuro, necesitamos imaginarnos un nuevo sistema de distinciones. Sugiero que pensemos en términos de “Sabiduría Digital”.
La tecnología digital puede hacernos cada vez más sabios.
La sabiduría digital es un concepto doble, refiriéndose primero, a la sabiduría que se presenta del uso de la tecnología, donde nuestra capacidad cognoscitiva llegue más allá de nuestra capacidad natural y en segundo lugar a la sabiduría en el uso prudente de la tecnología para realzar éstas, nuestras capacidades. Gracias a la tecnología, contaremos con información al instante, inmediata, a toda la historia registrada, a bibliotecas, a todos los estudios de casos y a todos los datos recogidos de cualquier índole y sobre todo a experiencias simuladas altamente realistas que facilitarán nuestro trabajo.
La forma en que utilicemos estos recursos, la forma en que los filtremos, para encontrar lo que necesitamos, depende de nosotros, pero concientes que la tecnología es y será un medio de ayuda muy importante en la formación de nuestra sabiduría y así poder tomar decisiones y juicios más acertados. La tecnología por si misma no substituirá la intuición, el buen juicio, la moral y la capacidad para resolver problemas.
Vea el documento completo a continuación...
Open publication - Free publishing
¿REALMENTE PIENSAN DIFERENTE?
Mark Prensky
Vea el documento completo a continuación...
Actualmente, nuestros hijos están siendo socializados de una manera muy diferente a la de sus padres. Las cifras son abrumadoras: más de 10,000 horas jugando videojuegos, más de 200.000 mensajes de correo electrónico y mensajes instantáneos enviados y recibidos; más de 10.000 horas hablando por teléfonos móviles, más de 20.000 horas viendo la televisión (un alto porcentaje la MTV de alta velocidad), más de 500.000 anuncios vistos: todo esto antes de que los chicos dejan la universidad. Y, quizás, a lo sumo, 5.000 horas de lectura de libros. Estos son los estudiantes “Nativos Digitales” de hoy en día.
En Nativos Digitales, Inmigrantes Digitales: Parte I1, discutimos cómo las diferencias entre nuestros alumnos Nativos Digitales y sus profesores Inmigrantes Digitales están en la raíz de muchos de los actuales problemas de la educación. Sugerí que es probable que los cerebros de los Nativos Digitales sean físicamente diferentes como consecuencia del estímulo digital que recibieron al crecer. Y afirmé que el aprendizaje a través de los juegos digitales es una buena forma de llegar a los nativos digitales en su “idioma nativo”.
Aquí les presento las pruebas de por qué creo que esto es así. Provienen de la neurobiología, la psicología social, y de los estudios realizados con niños que usan juegos de aprendizaje.
En Nativos Digitales, Inmigrantes Digitales: Parte I1, discutimos cómo las diferencias entre nuestros alumnos Nativos Digitales y sus profesores Inmigrantes Digitales están en la raíz de muchos de los actuales problemas de la educación. Sugerí que es probable que los cerebros de los Nativos Digitales sean físicamente diferentes como consecuencia del estímulo digital que recibieron al crecer. Y afirmé que el aprendizaje a través de los juegos digitales es una buena forma de llegar a los nativos digitales en su “idioma nativo”.
Aquí les presento las pruebas de por qué creo que esto es así. Provienen de la neurobiología, la psicología social, y de los estudios realizados con niños que usan juegos de aprendizaje.
Vea el documento completo a continuación...
NATIVOS DIGITALES, INMIGRANTES DIGITALES
MARK PRENSKY. 2001
Me resulta sorprendente cómo con todo el alboroto y el debate hoy en día acerca del declive de la educación en los Estados Unidos ignoramos su causa más fundamental. Nuestros estudiantes han cambiado radicalmente.
Los estudiantes de hoy ya no son el tipo de personas que nuestro sistema educativo fue diseñado para formar. Los estudiantes de hoy no han cambiado solo gradualmente con respecto a los del pasado, no han cambiado simplemente su argot, su ropa, sus adornos corporales o su estilo, como había ocurrido hasta ahora entre las distintas generaciones.
Una verdadera discontinuidad ha tenido lugar. Podríamos incluso llamarlo una “singularidad”: un acontecimiento que cambia las cosas de manera tan fundamental que no hay vuelta atrás. Esto que damos en llamar “singularidad” es la llegada y rápida propagación de la tecnología digital en las últimas décadas del siglo XX.
Vea el documento completo a continuación...
Me resulta sorprendente cómo con todo el alboroto y el debate hoy en día acerca del declive de la educación en los Estados Unidos ignoramos su causa más fundamental. Nuestros estudiantes han cambiado radicalmente.
Los estudiantes de hoy ya no son el tipo de personas que nuestro sistema educativo fue diseñado para formar. Los estudiantes de hoy no han cambiado solo gradualmente con respecto a los del pasado, no han cambiado simplemente su argot, su ropa, sus adornos corporales o su estilo, como había ocurrido hasta ahora entre las distintas generaciones.
Una verdadera discontinuidad ha tenido lugar. Podríamos incluso llamarlo una “singularidad”: un acontecimiento que cambia las cosas de manera tan fundamental que no hay vuelta atrás. Esto que damos en llamar “singularidad” es la llegada y rápida propagación de la tecnología digital en las últimas décadas del siglo XX.
Vea el documento completo a continuación...
miércoles, 3 de noviembre de 2010
INTERNET Y EL CEREBRO
No somos conscientes de los increíbles cambios en nuestro cerebro debidos al creciente uso de la red en la vida diaria.
En 1879, el filósofo alemán Friedrich Nietzsche estaba desesperado. Las heridas producidas en su juventud por caer bruscamente de un caballo perduraron en el tiempo, lo que le hizo declinar ser profesor en la Universidad de Basilea. Los fuertes dolores de cabeza y problemas de visión lo obligaron incluso a dejar de escribir. Todo cambió en 1882 cuando adquirió una máquina de escribir de fabricación danesa, Hansen Writing Ball. Con sus ojos cerrados, esta máquina le devolvió a Nietzsche la alegría de escribir, al punto que le asignó uno de sus mejores sonetos. Sin embargo, algo curioso aconteció: uno de sus amigos más cercanos, Heinrich Köselitz, pudo identificar un cambio sutil en su escritura. De alguna forma, esta había perdido su fluidez natural. Esta historia hace parte del reciente libro (junio 2010) The Shallows: What Internet is Doing to our Brains del autor Nicholas Carr. Gracias a dos excelentes libros The Big Switch y Does it Matter, Nicholas Carr se ha ganado el prestigio por su agudeza intelectual. Un artículo suyo de 2008, publicado en The Atlantic con el sugestivo título ¿Nos está haciendo estúpidos Google? le dio la vuelta al mundo. Dinero contactó a Carr para hablar de su último libro, un apasionante texto que revela la rapidez con la que está cambiando nuestro cerebro debido a internet.
Para Carr, el punto de partida es el libro clásico de 1964 Understanding Media: The Extensions of Man del afamado académico Marshall McLuhan. Casi considerado una estrella, McLuhan fue un referente de los años 60, y fue maestro en construir frases que pasaron a la historia como "el medio es el mensaje". Carr explica que, cuando se trata de una nueva tecnología, como la televisión o la radio, siempre van a existir entusiastas o detractores sobre el contenido de estos medios. Para el caso de internet, tristemente, los debates han sido tan fuertes que han llegado al punto de agravios personales. Sin embargo, Nicholas Carr rescata a McLuhan por un mensaje muy particular. "En el largo plazo el contenido del medio importa muy poco comparado con la influencia del medio mismo en nuestra forma de pensar y actuar", comenta el autor. En el fondo, lo que McLuhan entendió fue que cada medio en particular implica cambios muy profundos en el ser humano. Piense en cómo el computador ha transformado nuestra forma de trabajar. Hace pocas décadas, las personas escribían o editaban sin la ayuda de un procesador de palabras, tareas que para muchos hoy en día parecen imposibles a mano. Pero tal vez ni el mismo McLuhan imaginó lo que actualmente es la red: está en nuestra casa, oficinas, en el celular, y pronto hasta en la nevera o incluso en el cerebro mismo.
En 2009, la población adulta en Estados Unidos gastaba en promedio doce horas semanales en internet, el doble de lo registrado en 2005. Los jóvenes entre los 20 y 30 años en este país ya cuentan 19 horas semanales on-line y siguen aumentando. De hecho, actualmente un adolescente norteamericano recibe o envía en promedio 2.272 mensajes en la red al mes. No hay duda de que desde que el programador inglés Tim Berners-Lee escribió el código de la World Wide Web, este se convirtió en el medio por excelencia del ser humano. Sin embargo, probablemente con costos que no estamos dispuestos a reconocer. "Siento que no estoy pensando de la forma en que lo hacía antes. Esta sensación es más fuerte cuando me siento a leer", confiesa Carr. En su libro, este autor recoge el concepto de "tecnologías intelectuales", original de los antropólogos Jack Goody y Daniel Bell. Si bien cada medio nuevo deja un sello en el ser humano, como descubrió McLuhan, aquellos que potencian la capacidad mental tienen un impacto mucho mayor. Así como la máquina de escribir influyó en la escritura de Nietzsche, el cerebro humano no fue el mismo con la aparición de tecnologías como la escritura, la lectura, el mapa o el reloj. "Desafortunadamente, existen muchos fósiles del cuerpo humano pero no podemos saber qué diría un fósil de la mente", dice Carr.
A partir de exquisitas historias, Nicholas Carr hace un recuento de varias "tecnologías intelectuales", con sus opositores y promotores, enfocándose en tal vez la más importante: el libro. Alrededor de 1445, el herrero alemán Johannes Gutenberg se embarcó en una travesía por el río Rin que cambiaría el mundo. Gracias a la imprenta, los libros pudieron llegar a muchas más personas y no solamente a monjes o académicos que leían en cuartos oscuros. "Se estima que los libros producidos tras 15 años del invento de Gutenberg superaron lo hecho 1.000 años atrás", consigna Carr en su libro. De todas formas, explica que su ascenso no fue una tarea fácil. El mismo Sócrates, en tiempos de los griegos, denigraba de la escritura por atentar contra la memoria humana. Por simple que parezca, los libros requieren de una cualidad especial: la habilidad de permanecer en silencio y concentrados siguiendo las líneas de un texto por largo tiempo. Esto no era natural para el ser humano; sin embargo, esta mística del libro, un proceso lineal de aprendizaje, según Carr, ha sido el sustento intelectual y cultural de la humanidad en los últimos cinco siglos. "Pronto será la ética intelectual del pasado", argumenta el autor.
"Lo que estamos perdiendo, gracias a internet, es nuestra capacidad de permanecer enfocados y concentrados", es el principal argumento de Nicholas Carr. Esta es una tendencia irreversible. La red es cada vez más nuestro mapa, reloj, teléfono, televisión y ahora tristemente también nuestro libro. No es que estemos leyendo menos, explica Carr, de hecho al visualizar información todo el tiempo leemos más pero distinto. Los científicos han descubierto que distintas zonas del cerebro se desarrollan o se apaciguan leyendo un libro o navegando por internet. Lamentablemente, en el futuro la experiencia va a ser la misma. En el afán de cada medio de parecerse a internet, también los libros electrónicos operan con hipervínculos y acceso a la red. Cuando esté terminado el increíblemente ambicioso proyecto de Google Book Search de tener escaneados los libros de la historia estos podrán ser consultados como en una base de datos. "Como en internet, el ser humano va a leer un poquito aquí y un poquito allá desplazando cada vez más la lectura lineal", argumenta Carr. Es un paradigma totalmente distinto con implicaciones reales sobre el cerebro.
Según Nicholas Carr, por muchos años los neurólogos permanecieron fieles a los conceptos del eminente científico español Santiago Ramón y Cajal quien en 1913 declaró que "en el cerebro adulto las neuronas permanecen fijas. Todo tiende a morir y no se puede regenerar". Hoy en día, gracias a los descubrimientos de científicos pioneros como Michael Merzenich, sabemos que el cerebro es increíblemente flexible, incluso en la edad adulta. Gran parte de los estudios de flexibilidad del cerebro parten de analizar personas que han perdido alguna extremidad. El cerebro, incluso en los adultos, tiene una gran capacidad para reorganizarse y componerse. Estas son buenas y malas noticias. Por una parte, abre la posibilidad de tratamientos médicos y desarrollo intelectual para toda la vida; pero también de crear nuevos hábitos negativos en el cerebro. Cada nueva tecnología tiene efectos positivos y negativos. Es evidente que como seres humanos tenemos que defender nuestra capacidad de permanecer calmados, concentrados y disfrutar la vida.
REVISTA DINERO. 10-31-2010
En 1879, el filósofo alemán Friedrich Nietzsche estaba desesperado. Las heridas producidas en su juventud por caer bruscamente de un caballo perduraron en el tiempo, lo que le hizo declinar ser profesor en la Universidad de Basilea. Los fuertes dolores de cabeza y problemas de visión lo obligaron incluso a dejar de escribir. Todo cambió en 1882 cuando adquirió una máquina de escribir de fabricación danesa, Hansen Writing Ball. Con sus ojos cerrados, esta máquina le devolvió a Nietzsche la alegría de escribir, al punto que le asignó uno de sus mejores sonetos. Sin embargo, algo curioso aconteció: uno de sus amigos más cercanos, Heinrich Köselitz, pudo identificar un cambio sutil en su escritura. De alguna forma, esta había perdido su fluidez natural. Esta historia hace parte del reciente libro (junio 2010) The Shallows: What Internet is Doing to our Brains del autor Nicholas Carr. Gracias a dos excelentes libros The Big Switch y Does it Matter, Nicholas Carr se ha ganado el prestigio por su agudeza intelectual. Un artículo suyo de 2008, publicado en The Atlantic con el sugestivo título ¿Nos está haciendo estúpidos Google? le dio la vuelta al mundo. Dinero contactó a Carr para hablar de su último libro, un apasionante texto que revela la rapidez con la que está cambiando nuestro cerebro debido a internet.
Para Carr, el punto de partida es el libro clásico de 1964 Understanding Media: The Extensions of Man del afamado académico Marshall McLuhan. Casi considerado una estrella, McLuhan fue un referente de los años 60, y fue maestro en construir frases que pasaron a la historia como "el medio es el mensaje". Carr explica que, cuando se trata de una nueva tecnología, como la televisión o la radio, siempre van a existir entusiastas o detractores sobre el contenido de estos medios. Para el caso de internet, tristemente, los debates han sido tan fuertes que han llegado al punto de agravios personales. Sin embargo, Nicholas Carr rescata a McLuhan por un mensaje muy particular. "En el largo plazo el contenido del medio importa muy poco comparado con la influencia del medio mismo en nuestra forma de pensar y actuar", comenta el autor. En el fondo, lo que McLuhan entendió fue que cada medio en particular implica cambios muy profundos en el ser humano. Piense en cómo el computador ha transformado nuestra forma de trabajar. Hace pocas décadas, las personas escribían o editaban sin la ayuda de un procesador de palabras, tareas que para muchos hoy en día parecen imposibles a mano. Pero tal vez ni el mismo McLuhan imaginó lo que actualmente es la red: está en nuestra casa, oficinas, en el celular, y pronto hasta en la nevera o incluso en el cerebro mismo.
En 2009, la población adulta en Estados Unidos gastaba en promedio doce horas semanales en internet, el doble de lo registrado en 2005. Los jóvenes entre los 20 y 30 años en este país ya cuentan 19 horas semanales on-line y siguen aumentando. De hecho, actualmente un adolescente norteamericano recibe o envía en promedio 2.272 mensajes en la red al mes. No hay duda de que desde que el programador inglés Tim Berners-Lee escribió el código de la World Wide Web, este se convirtió en el medio por excelencia del ser humano. Sin embargo, probablemente con costos que no estamos dispuestos a reconocer. "Siento que no estoy pensando de la forma en que lo hacía antes. Esta sensación es más fuerte cuando me siento a leer", confiesa Carr. En su libro, este autor recoge el concepto de "tecnologías intelectuales", original de los antropólogos Jack Goody y Daniel Bell. Si bien cada medio nuevo deja un sello en el ser humano, como descubrió McLuhan, aquellos que potencian la capacidad mental tienen un impacto mucho mayor. Así como la máquina de escribir influyó en la escritura de Nietzsche, el cerebro humano no fue el mismo con la aparición de tecnologías como la escritura, la lectura, el mapa o el reloj. "Desafortunadamente, existen muchos fósiles del cuerpo humano pero no podemos saber qué diría un fósil de la mente", dice Carr.
A partir de exquisitas historias, Nicholas Carr hace un recuento de varias "tecnologías intelectuales", con sus opositores y promotores, enfocándose en tal vez la más importante: el libro. Alrededor de 1445, el herrero alemán Johannes Gutenberg se embarcó en una travesía por el río Rin que cambiaría el mundo. Gracias a la imprenta, los libros pudieron llegar a muchas más personas y no solamente a monjes o académicos que leían en cuartos oscuros. "Se estima que los libros producidos tras 15 años del invento de Gutenberg superaron lo hecho 1.000 años atrás", consigna Carr en su libro. De todas formas, explica que su ascenso no fue una tarea fácil. El mismo Sócrates, en tiempos de los griegos, denigraba de la escritura por atentar contra la memoria humana. Por simple que parezca, los libros requieren de una cualidad especial: la habilidad de permanecer en silencio y concentrados siguiendo las líneas de un texto por largo tiempo. Esto no era natural para el ser humano; sin embargo, esta mística del libro, un proceso lineal de aprendizaje, según Carr, ha sido el sustento intelectual y cultural de la humanidad en los últimos cinco siglos. "Pronto será la ética intelectual del pasado", argumenta el autor.
"Lo que estamos perdiendo, gracias a internet, es nuestra capacidad de permanecer enfocados y concentrados", es el principal argumento de Nicholas Carr. Esta es una tendencia irreversible. La red es cada vez más nuestro mapa, reloj, teléfono, televisión y ahora tristemente también nuestro libro. No es que estemos leyendo menos, explica Carr, de hecho al visualizar información todo el tiempo leemos más pero distinto. Los científicos han descubierto que distintas zonas del cerebro se desarrollan o se apaciguan leyendo un libro o navegando por internet. Lamentablemente, en el futuro la experiencia va a ser la misma. En el afán de cada medio de parecerse a internet, también los libros electrónicos operan con hipervínculos y acceso a la red. Cuando esté terminado el increíblemente ambicioso proyecto de Google Book Search de tener escaneados los libros de la historia estos podrán ser consultados como en una base de datos. "Como en internet, el ser humano va a leer un poquito aquí y un poquito allá desplazando cada vez más la lectura lineal", argumenta Carr. Es un paradigma totalmente distinto con implicaciones reales sobre el cerebro.
Según Nicholas Carr, por muchos años los neurólogos permanecieron fieles a los conceptos del eminente científico español Santiago Ramón y Cajal quien en 1913 declaró que "en el cerebro adulto las neuronas permanecen fijas. Todo tiende a morir y no se puede regenerar". Hoy en día, gracias a los descubrimientos de científicos pioneros como Michael Merzenich, sabemos que el cerebro es increíblemente flexible, incluso en la edad adulta. Gran parte de los estudios de flexibilidad del cerebro parten de analizar personas que han perdido alguna extremidad. El cerebro, incluso en los adultos, tiene una gran capacidad para reorganizarse y componerse. Estas son buenas y malas noticias. Por una parte, abre la posibilidad de tratamientos médicos y desarrollo intelectual para toda la vida; pero también de crear nuevos hábitos negativos en el cerebro. Cada nueva tecnología tiene efectos positivos y negativos. Es evidente que como seres humanos tenemos que defender nuestra capacidad de permanecer calmados, concentrados y disfrutar la vida.
REVISTA DINERO. 10-31-2010
Suscribirse a:
Entradas (Atom)