domingo, 20 de febrero de 2011

EN 2045, LOS COMPUTADORES PENSARÁN SOLOS

La publicación se basa en los cálculos de un experto en la evolución del poder de cómputo.
Durante años, el tema ha servido como materia prima de la ciencia ficción: los computadores evolucionarán a tal punto que adquirirán vida propia y desplazarán a la humanidad. Así ocurre, por ejemplo, en las películas Inteligencia Artificial y Matrix.

Pero apenas unos pocos han planteado, como lo hizo Time esta semana, que el día en que las máquinas piensen por sí mismas podría estar a la vuelta de la esquina.

La prestigiosa revista usó como eje de su artículo de portada a Raymond Kurzweil, un estadounidense que ha dedicado su vida a estudiar, mediante sofisticados cálculos, la evolución del poder de los computadores. Según él, en el 2030 aquellos habrán equiparado en inteligencia al ser humano. Y para el 2045, la inteligencia artificial estará tan desarrollada que será autónoma.

"Para ese año -proyecta Time-, la inteligencia artificial será mil millones de veces más grande que toda la inteligencia humana que existe hoy". A ese momento se lo llama la Singularidad, una idea que cuenta con todo un movimiento de simpatizantes en EE. UU. y hasta una universidad dedicada a estudiarla.

Según sus promotores, una vez se alcance tal nivel, mucho de lo que es imposible actualmente, de acuerdo con estándares humanos, podrá hacerse realidad. La inmortalidad, por ejemplo. Una de las teorías es que con los avances tecnológicos que semejante inteligencia permitirá sería posible trasladar la mente y la conciencia a un computador -o a un robot- y así continuar viviendo por siempre.

"Las fronteras biológicas -permanentes e inevitables- son problemas difíciles pero con solución entre los que siguen la Singularidad. La muerte es uno de ellos. El envejecimiento es una enfermedad como cualquier otra y se puede curar", dice la revista, que corona su artículo con el sugestivo título '2045, el año en que el hombre se vuelve inmortal'.

Por supuesto, a la Singularidad no le faltan críticos. Uno de ellos es Dennis Bray. Sin descartar que los avances tecnológicos permitirán conquistar en el futuro cosas que parecen imposibles, este estudioso cree que los computadores, por más inteligentes que se vuelvan, jamás lograrán alcanzar el grado de complejidad de la mente humana y mucho menos su capacidad de sentir.

"Aunque los componentes biológicos actúan de una manera que se puede comparar con los circuitos electrónicos, son muy diferentes, dada la cantidad de formas y combinaciones que pueden adoptar. Esas combinaciones les dan a los seres vivos una capacidad casi infinita para almacenar información sobre condiciones pasadas y presentes, así como una habilidad única para prepararse hacia el futuro", argumenta Bray.

El corazón del sugestivo artículo no apunta tanto al triunfo de las máquinas sobre los hombres -un veredicto que está por verse- como a la transformación profunda y radical que podría sobrevenir si la ciencia, gracias al poder exponencial de los computadores, evoluciona a tal punto que logra derrotar a la muerte.

"Si yo puedo transferir mi conciencia a un computador, ¿seguiré siendo yo? ¿Quién decide quién se vuelve inmortal?¿Quién decide cuál es la línea entre la inteligencia sensible y la inteligencia insensible? ¿Cuál es el sentido de nuestras vidas al acercarnos a la inmortalidad, la omnisciencia y la omnipotencia? ¿No perdemos la humanidad al derrotar a la muerte?", se pregunta la publicación, por no hablar del desafío que semejante cambio traería a la religión. Todas preguntas, si se cree en las teorías de Kurzweil, que pronto encontrarán respuesta.

Para 'Watson', todo es elemental

Esta semana, en el popular concurso 'Jeopardy', un supercomputador desarrollado por IBM acabó con dos de los mejores competidores del programa de televisión.

La máquina, llamada 'Watson', les ganó en todas las categorías de preguntas (arte, cultura, ciencia y geografía). Diseñado para trabajar en un hospital, 'Watson' entiende conceptos y puede formular hipótesis.

Sergio Gómez Maseri
Corresponsal de EL TIEMPO
Washington

jueves, 17 de febrero de 2011

EL MÓVIL EN 2020

Expertos discuten las tendencias en telefonía de la próxima década, pantallas flexibles y servicios inteligentes

Móviles tan finos como el papel. Pantallas flexibles que se estiran y doblan para transformar un teléfono inteligente en una tableta. Microsensores que informan al teléfono del entorno: el humor de su dueño, el estado del tiempo, la localización... así serán los teléfonos en 2020. En el Congreso Mundial del Móvil se ha hablado del futuro. Un grupo de tecnólogos han analizado los caminos por los que podría discurrir la industria del móvil en la próxima década. Y en algo sí han coincidido: los celulares dejarán de ser simples aparatos para ser amigos de compañía.

"Sabrán nuestra localización, nuestro estado de ánimo y nuestras necesidades de productividad. No serán aparatos, serán amigos de bolsillo", dijo John Donovan, director tecnológico de la operadora norteamericana AT&T, quien añadió: "La Red será como oxígeno, irá con nosotros a todas partes". Para demostrarlo enseñó una "zapatilla inteligente", dotada de sensores, conectada a la Red y pensada para controlar la localización de las personas mayores o enviar automáticamente sus constantes vitales a un hospital. "Desde el móvil podremos controlar todos estos aparatos".

Donovan predijo la desaparición del modelo actual de aplicaciones, porque "residirán en la nube", señaló, y apostó por el surgimiento de aparatos en los que las fronteras actuales del hardware desaparecerán. "Veremos televisores que podrán ser teléfonos, móviles que serán grabadores personales o PC que serán teles".

Kristian Ulrich Larsen, diseñador de interacción de 25 años, intentó materializar estas ideas mostrando un concepto de móvil bautizado como flip phone. "Todos los teléfonos inteligentes se parecen ahora demasiado. Con el flip phone queremos cambiar eso". La idea: un celular de tres pantallas flexibles, plegables y convertible en una minitableta con un par de movimientos, ideal para la multitarea, navegar por Internet y leer libros. De momento es solo un concepto, pero Larsen cree que algo parecido se impondrá en unos años.

La visión más futurista la aportó Rich Green, jefe mundial de tecnología de Nokia. Eso sí, las miradas de escepticismo flotaban en el ambiente. En colaboración con la Universidad de Cambridge, Nokia investiga cómo aplicar la nanotecnología a los móviles con el fin de incorporar sensores que los hagan más inteligentes o diseñar pantallas flexibles para convertirlos en relojes y tabletas. El proyecto, denominado Morph, tiene ya dos años de antigüedad. "La confluencia de la nanotecnología, la biología y la telefonía logrará, por ejemplo, que un móvil cambie de color y apariencia en un solo clic".

Sony Ericsson es otro de los fabricantes que cree en la convergencia de equipos. "Una prueba es nuestra última novedad, el Xperia Play, una mezcla de PSP y teléfono", dijo Jan Uddenfeldt, responsable global de tecnología de la compañía. La intervención más provocadora fue la del cofundador de The Astonishing Tribe (TAT), estudio de diseño y tecnología responsable de parte del desarrollo de Android. Hampus Jakobsson cuestionó la evolución de la industria del móvil desde el punto de vista antropológico. "Cada vez pasamos más tiempo colgados de una pantalla. Enviamos un tweet o un SMS en lugar de hablar cara a cara. ¿Es realmente lo que queremos?", preguntó. Y cerró con su respuesta: "Tenemos que diseñar móviles y servicios que nos hagan pasar más tiempo entre nosotros, y menos con las máquinas".

EL PAÍS. MANUEL ÁNGEL MÉNDEZ - Barcelona - 17/02/2011

domingo, 13 de febrero de 2011

CUÁNTA INFORMACIÓN PODEMOS LEER EN INTERNET?

Es evidente que internet ha cambiado de un modo radical la forma en que la gente se relaciona entre sí, el modo en que trabaja o se divierte. Puede parecernos mentira, pero hace sólo 15 años la mayoría de las empresas no utilizaban el correo electrónico como medio natural para enviar y recibir comunicaciones, ni disponían de una página web que les permitiese relacionarse con sus clientes y servir de primera fuente de información para quien quisiese conocer esa compañía o alguno de sus productos o servicios.

Ha cambiado también el modo en que accedemos a la información, y lo ha hecho varias veces en estos últimos años. Para estar informados, antes debíamos esperar al periódico de la mañana (y leer las noticias ocurridas el día anterior), o al telediario de la tarde o de la noche, donde se resume lo acontecido en la mañana o en todo el día. Este modo de recibir la información tiene unas características muy concretas:

Necesita de una demanda activa: hay que ir a comprar el periódico o sentarse frente al televisor
Está limitada a un horario: el periódico aparece por la mañana, no antes, y el informativo es a una hora concreta
Se reciben las noticias decididas por el medio de comunicación escogido: no hay posibilidad de selección
Requiere de atención permantente durante la emisión: si haces otra cosa en ese momento, te pierdes la noticia
No hay un modo establecido para hacerse eco de las noticias recibidas: no se puede volver a ver el informativo
Se limitan las fuentes: no se pueden ver tres o cuatro informativos porque coinciden en el tiempo. Los periódicos cuestan dinero y no todo el mundo puede pagar los seis o siete principales.
La web 0.5

La llegada de la web permitió en primer lugar trasladar a este medio la misma estructura de la información que se tenía en los medios tradicionales. Así, los periódicos digitales eran meros reflejos de la versión en papel, verdadera protagonista de la empresa y única con la que se obtenía una rentabilidad. En esta web 0.5 (la 1.0 vendría después) no hubo ningún cambio significativo en el modo en que se accedía a la información ya que la actualización de contenidos seguía haciéndose por ediciones periódicas. La única ventaja era que no había que acercarse al kiosco si querías ojear las noticias más destacadas del día anterior y que podías acercarte a más medios sin coste.

La web 1.0

Los medios digitales entendieron más tarde que ya no tenían la necesidad de ajustarse a dos o tres ediciones diarias para ofrecer su información. Internet les permitía compartir las noticias en el mismo momento en que las conocían, tal y como hacían los teletipos, pero una vez ampliadas y contrastadas por ellos. Los periódicos digitales eliminaron la necesidad de estar pendientes de los medios a una hora concreta para poder estar informados y dotaron de continuidad a la labor informativa. Ya no había ediciones, sino que podías conectarte cuando quisieras y recibir la información de lo ocurrido hasta ese mismo momento.

Las televisiones no encontraban la manera de encajar sus informativos (el vídeo bajo demanda era impensable por lento y costoso) y ofrecían en su página web una suerte de teletipos.

Aunque ya no había que estar pendiente de acudir a alguna parte o de hacer algo en un momento dado para estar informado, los usuarios empezaban a ser partícipes de la web y no solo consumidores de información. Hablaban por el messenger, se reenviaban largas cadenas de e-mails, comentaban las noticias por otros medios y querían compartirlas.

De todas formas, acceder varias veces al día a varios medios digitales ocupaba mucho tiempo, así que seguía siendo costoso (y un fastidio) obtener mucha información. Los blogs no existían. Solo había páginas personales, con una menor frecuencia de actualización, y esa web se extingue (Geocities cierra hoy sus puertas).

La web 2.0


RSS
Esas necesidades de los usuarios llevaron a permitir los comentarios de las noticias en los medios digitales, y a añadir la opción, por ejemplo, de enviar por e-mail. La aparición del RSS permitió centralizar la información que queríamos recibir. En lugar de acceder varias veces a cada periódico, sólo debíamos acceder a nuestro lector favorito para recibir la información de los medios que previamente habíamos seleccionado. Esto agilizó nuestra manera de recibir la información, permitiéndonos leer más información en menos tiempo. Esta solución supuso una mejora pero enseguida se vislumbró el siguiente paso: ¿por qué voy a leer todas las noticias de un medio si la mayoría no me interesan? (no me interesa el fútbol y es la mitad del periódico, no me interesa la política y es la mitad del periódico, no me interesan los sucesos y son la mitad…, etc.). Así, puedo suscribirme solamente a algunas secciones y a blogs personales que hablan de cosas que me interesan, poniendo en el mismo plano a los medios de comunicación (que antes tenían la exclusiva sobre la difusión) y a las personas. Todos ellos son fuentes de información.

Compartir

Compartir es un pilar fundamental en la web de hoy, y en las fuentes de información ha supuesto un cambio sustancial. La iniciativa necesaria para obtener información ya no es imprescindible, ya que la información llega a nosotros sin que tengamos que ir necesariamente a buscarla. Los medios se diversifican y se popularizan los agregadores de noticias (meneame.net) donde la portada incluye las noticias destacadas y votadas por los propios usuarios, procedan de donde procedan.

Pero además disponemos de google reader donde no solo podemos tener los feeds de medios de comunicación o blogs, sino feeds de agregadores (en una gran vuelta de tuerca), que ya filtran y seleccionan lo más interesante.

Más aún, también tenemos usuarios, amigos a los que conocemos y en cuyos gustos o intereses confiamos. Así, recibimos la información que a ellos les parece interesante, porque la comparten pensando que a nosotoros también nos interesará.



Twitter
Twitter, esa herramienta en principio tan tonta (¿quién va a comentar permanentemente lo que está haciendo? ¿A quién puede interesarle?) ha supuesto una revolución en el modo en que compartimos y recibimos información. Nuevamente por esta vía recibimos únicamente la información que comparten las personas que nosotros hemos seleccionado para seguir. Y si no nos gusta lo que nos envían o si nos deja de gustar, pues simplemente dejamos de seguirles.

Así, el modo en que estamos informados ha cambiado absolutamente:

No necesitamos hacer una búsqueda activa de información. Nos llega de forma pasiva lo que nos interesa.
La información no tiene horarios. Llega en cuanto se produce.
Seleccionamos los medios, o las personas que queremos que nos informen, y sobre lo que queremos ser informados.
No hace falta una atención constante. Podemos leerlo cuando queramos o podamos.
Toda la información recibida puede compartirse con quien queramos por infinidad de medios (agregadores, blogs, redes sociales, etc.)
Podemos acceder a más información: Mejorando el sistema de recepción de información y descartando lo que no consideramos importante o interesante, podemos aumentar el número de noticias o medios que podemos recibir en el mismo tiempo.
Estamos logrando que hay alguna noticia, cuando alguien piensa algo interesante o cuando hay novedades en alguna materia de nuestro interés, nos llegue esa información de forma instantánea sin que tengamos que demandarla. Aún así, no es suficiente. Queremos disponer con el menor esfuerzo posible de toda la información relevante en el menor tiempo posible. ¿Cuánto seremos capaces de mejorar los procesos de acceso a la información? ¿Dónde estará el límite? Con la avalacha de información que supone la simple conexión a internet corremos el riesgo de no leer o no entender nada si estos nuevos procesos no nos ayudan a comprender y relacionar la cantidad de datos que recibimos.

La idea es avanzar hacia una web completamente semántica.

http://eadmon.wordpress.com/2009/10/

COMPUTACIÓN EN LA NUBE

La computación en la nube, del inglés cloud computing, es un paradigma que permite ofrecer servicios de computación a través de Internet. La "nube" es una metáfora de Internet.Introducción:
En este tipo de computación todo lo que puede ofrecer un sistema informático se ofrece como servicio,[1] de modo que los usuarios puedan acceder a los servicios disponibles "en la nube de Internet"[2] sin conocimientos (o, al menos sin ser expertos) en la gestión de los recursos que usan.[3] Según el IEEE Computer Society, es un paradigma en el que la información se almacena de manera permanente en servidores en Internet y se envía a cachés temporales de cliente, lo que incluye equipos de escritorio, centros de ocio, portátiles, etc. Esto se debe a que, pese a que las capacidades de los PC han mejorado sustancialmente, gran parte de su potencia se desaprovecha, al ser máquinas de propósito general.[cita requerida]
Cloud computing es un nuevo modelo de prestación de servicios de negocio y tecnología, que permite al usuario acceder a un catálogo de servicios estandarizados y responder a las necesidades de su negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o de picos de trabajo, pagando únicamente por el consumo efectuado.
El cambio paradigmático que ofrece cloud computing es que permite aumentar el número de servicios basados en la web. Esto genera beneficios tanto para los proveedores, que pueden ofrecer, de forma más rápida y eficiente, un mayor número de servicios, como para los usuarios que tienen la posibilidad de acceder a ellos, disfrutando de la ‘transparencia’ e inmediatez del sistema y de un modelo de pago por consumo.
Cloud computing consigue aportar estas ventajas, apoyándose sobre una infraestructura tecnológica dinámica que se caracteriza, entre otros factores, por un alto grado de automatización, una rápida movilización de los recursos, una elevada capacidad de adaptación para atender a una demanda variable, así como virtualización avanzada y un precio flexible en función del consumo realizado.
La computación en nube es un concepto que incorpora el software como servicio, como en la Web 2.0 y otros conceptos recientes, también conocidos como tendencias tecnológicas, que tienen en común el que confían en Internet para satisfacer las necesidades de cómputo de los usuarios.

Comienzos :
El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google, Amazon AWS y otros que construyeron su propia infraestructura. De entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos horizontalmente, introducidos como servicios virtuales de TI escalados masivamente y manejados como recursos configurados y mancomunados de manera continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre 2006 en la revista Wired titulado Las fábricas de información. Las granjas de servidores, sobre las que escribió Gilder, eran similares en su arquitectura al procesamiento “grid” (red, parrilla), pero mientras que los grids se utilizan para aplicaciones de procesamiento técnico ligeramente acoplados (loosely coupled un sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una interrelación continua entre ellos), este nuevo modelo de nube se estaba aplicando a los servicios de Internet.

Beneficios :
*Integración probada de servicios Web. Por su naturaleza, la tecnología de Cloud Computing se puede integrar con mucha mayor facilidad y rapidez con el resto de sus aplicaciones empresariales (tanto software tradicional como Cloud Computing basado en infraestructuras), ya sean desarrolladas de manera interna o externa.[5]
*Prestación de servicios a nivel mundial. Las infraestructuras de Cloud Computing proporcionan mayor capacidad de adaptación, recuperación de desastres completa y reducción al mínimo de los tiempos de inactividad.
*Una infraestructura 100% de Cloud Computing no necesita instalar ningún tipo de hardware. La belleza de la tecnología de Cloud Computing es su simplicidad… y el hecho de que requiera mucha menor inversión para empezar a trabajar.
*Implementación más rápida y con menos riesgos. Podrá empezar a trabajar muy rápidamente gracias a una infraestructura de Cloud Computing. No tendrá que volver a esperar meses o años e invertir grandes cantidades de dinero antes de que un usuario inicie sesión en su nueva solución. Sus aplicaciones en tecnología de Cloud Computing estarán disponibles en cuestión de semanas o meses, incluso con un nivel considerable de personalización o integración.
*Actualizaciones automáticas que no afectan negativamente a los recursos de TI. Si actualizamos a la última versión de la aplicación, nos veremos obligados a dedicar tiempo y recursos (que no tenemos) a volver a crear nuestras personalizaciones e integraciones. La tecnología de Cloud *Computing no le obliga a decidir entre actualizar y conservar su trabajo, porque esas personalizaciones e integraciones se conservan automáticamente durante la actualización.
*Contribuye al uso eficiente de la energía. En este caso, a la energía requerida para el funcionamiento de la infraestructura. En los datacenters tradicionales, los servidores consumen mucha más energía de la requerida realmente. En cambio, en las nubes, la energía consumida es sólo la necesaria, reduciendo notablemente el desperdicio.

Capas:
Software como un Servicio (SaaS, sus siglas en inglés)
SaaS se encuentra en la capa más alta y caracteriza una aplicación completa ofrecida como un servicio, en-demanda, vía multitenencia —que significa una sola instancia del software que corre en la infraestructura del proveedor y sirve a múltiples organizaciones de clientes. El ejemplo de SaaS conocido más ampliamente es Salesforce.com, pero ahora ya hay muchos más, incluyendo las Google Apps que ofrecen servicios básicos de negocio como el e-mail. Por supuesto, la aplicación multitenencia de Salesforce.com ha constituido el mejor ejemplo de cómputo en nube durante unos cuantos años. Por otro lado, como muchos otros jugadores en el negocio del cómputo en nube, Salesforce.com ahora opera en más de una capa de la nube con su Force.com, que ya está en servicio, y que consiste en un ambiente de desarrollo de una aplicación compañera (“companion application”), o plataforma como un servicio.

*Plataforma como un Servicio (PaaS sus siglas en inglés)

La capa del medio, o PaaS, es la encapsulación de una abstración de un ambiente de desarrollo y el empaquetamiento de un carga de servicios. La carga arquetipo es una imagen Xen (parte de Servicios Web Amazon) conteniendo una pila básica Web (por ejemplo, un distro Linux, un servidor Web, y un ambiente de programación como Perl o Ruby). Las ofertas de PaaS pueden dar servicio a todas las fases del ciclo de de desarrollo y pruebas del software, o pueden estar especializadas en cualquier área en particular, tal como la administración del contenido.
Los ejemplos comerciales incluyen Google App Engine, que sirve aplicaciones de la infraestructura Google. Servicios PaaS tales como éstos pueden proveer una gran cantidad de flexibilidad, pero puede ser restringida por las capacidades que están disponibles a través del proveedor.

*Infraestructura como un Servicio (IaaS sus siglas en inglés)
IaaS se encuentra en la capa inferior y es un medio de entregar almacenamiento básico y capacidades de cómputo como servicios estandarizados en la red. Servidores, sistemas de almacenamiento, conexiones, enrutadores, y otros sistemas se concentran (por ejemplo a través de la tecnología de virtualización) para manejar tipos específicos de cargas de trabajo —desde procesamiento en lotes (“batch”) hasta aumento de servidor/almacenamiento durante las cargas pico. El ejemplo comercial mejor conocido es Amazon Web Services, cuyos servicios EC2 y S3 ofrecen cómputo y servicios de almacenamiento esenciales (respectivamente). Otro ejemplo es Joyent cuyo producto principal es una línea de servidores virtualizados, que proveen una infraestructura en-demanda altamente escalable para manejar sitios Web, incluyendo aplicaciones Web complejas escritas en Ruby en Rails, PHP, Python, y Java.



Tipos de nubes:

*Las nubes públicas se manejan por terceras partes, y los trabajos de muchos clientes diferentes pueden estar mezclados en los servidores, los sistemas de almacenamiento y otras infraestructuras de la nube. Los usuarios finales no conocen qué trabajos de otros clientes pueden estar corriendo en el mismo servidor, red, discos como los suyos propios.

*Las nubes privadas son una buena opción para las compañías que necesitan alta protección de datos y ediciones a nivel de servicio. Las nubes privadas están en una infraestructura en-demanda manejada por un solo cliente que controla qué aplicaciones debe correr y dónde. Son propietarios del servidor, red, y disco y pueden decidir qué usuarios están autorizados a utilizar la infraestructura.

*Las nubes híbridas combinan los modelos de nubes públicas y privadas. Usted es propietario de unas partes y comparte otras, aunque de una manera controlada. Las nubes híbridas ofrecen la promesa del escalado aprovisionada externamente, en-demanda, pero añaden la complejidad de determinar cómo distribuir las aplicaciones a través de estos ambientes diferentes. Las empresas pueden sentir cierta atracción por la promesa de una nube híbrida, pero esta opción, al menos inicialmente, estará probablemente reservada a aplicaciones simples sin condicionantes, que no requieran de ninguna sincronización o necesiten bases de datos complejas.

Comparaciones:

La computación en nube usualmente es confundida con la computación en grid (red) (una forma de computación distribuida por la que "un súper computador virtual" está compuesto de un cluster enlazado de ordenadores débilmente acoplados, actuando en concierto para realizar tareas muy grandes).

Controversia :

Dado que la computación en nube no permite a los usuarios poseer físicamente los dispositivos de almacenamiento de sus datos (con la excepción de la posibilidad de copiar los datos a un dispositivo de almacenamiento externo, como una unidad flash USB o un disco duro), deja la responsabilidad del almacenamiento de datos y su control en manos del proveedor.
La computación en nube ha sido criticada por limitar la libertad de los usuarios y hacerlos dependientes del proveedor de servicios.[9] Algunos críticos afirman que sólo es posible usar las aplicaciones y servicios que el proveedor esté dispuesto a ofrecer. Así, el London Times compara la computación en nube con los sistemas centralizados de los años 50 y 60, en los que los usuarios se conectaban a través de terminales "gregarios" con ordenadores centrales. Generalmente, los usuarios no tenían libertad para instalar nuevas aplicaciones, y necesitaban la aprobación de administradores para desempeñar determinadas tareas. En suma, se limitaba tanto la libertad como la creatividad. El Times argumenta que la computación en nube es un retorno a esa época.

http://fanny-redessena2008.blogspot.com/

martes, 8 de febrero de 2011

COMPUTACIÓN EN LA NUBE - LA EMPRESA EN EL AIRE

La computación en la nube -conocida también como cloud computing- parece ser el camino obligado que van a recorrer las empresas de todos los tamaños en materia de tecnología en los próximos diez años. Tan seguro es esto, que Microsoft dedica ya US$6.600 millones anuales al desarrollo de productos y servicios de este tipo, y prácticamente no hay jugador importante en el sector de tecnología para los negocios que no esté concentrado en "la nube".

Lo más interesante en esta tendencia es que llega tanto a las grandes como a las medianas y pequeñas empresas e, incluso, al usuario doméstico de tecnología. Cuando alguien revisa su correo de Hotmail o Yahoo!, o cuando participa en una conferencia web, está accediendo a "la nube". Algunos expertos creen que está cerca el día en que todo el software, tanto el que utilizan las empresas para gestionar los negocios, como el que utiliza la gente para trabajar y divertirse, estará alojado en servidores en internet y no en los computadores personales, y se pagará por su uso tal como pagamos hoy por el agua o la energía. De eso se trata cloud computing, de entregar a terceros el manejo de la tecnología, y acceder a los recursos computaciones (software, infraestructura, almacenamiento, comunicaciones, etc.) a través del navegador de internet. Todo alojado en la red y disponible las 24 horas desde cualquier dispositivo y desde cualquier lugar.

Aunque se trata de una tendencia antigua y con bastantes adeptos, fue desde el año pasado que Pymes de todo el mundo comenzaron a tomar en serio este modelo y cada vez resulta más claro que una buena estrategia de migración a la computación en la nube podría ser el camino hacia el éxito para las pequeñas y medianas empresas, que no disponen del capital suficiente para invertir en tecnología ni infraestructura, pero están en condiciones de pagar una suscripción a los servicios por demanda. No hay que comprar equipos ni servidores, ni costosas licencias de software, ni tener ingenieros que administren todo esto.

Esta es la razón por la que una avalancha de Pymes comenzó desde antes a adoptar servicios de correo electrónico como Gmail o paquetes de ofimática como Microsoft Office Web Applications, alojados en "la nube", administrados por compañías de probada seriedad y disponibles a un bajo costo (a veces gratis). Se ha hablado de esto desde hace muchos años, pero por un conjunto de causas, parece haber llegado al fin la hora de la computación en la nube. "En la medida en que la gente utiliza más internet para hacer cosas cotidianas, tiene mayor confianza para utilizar las tecnologías de cloud", explica Ricardo Marulanda, gerente de nuevas tecnologías de Microsoft en Colombia. Pero la abrazadora cultura de internet de nuestros días no es el único factor que explica el auge.

Las tecnologías de virtualización mejoraron notablemente y los costos de conectarse a internet bajaron lo suficiente en los últimos cinco años, para que consumir la computación como un servicio público y no como una infraestructura propia, comenzase a resultar atractivo. No obstante, a juicio de Juan Carlos Hincapié, gerente de la unidad de servicios de IBM, no se ha llegado al punto necesario para la masificación: "Para potenciar este modelo entre las Pymes, los costos de conectarse tendrán que bajar todavía mucho más", explica. Para este experto, la nube tiene el beneficio de la masa crítica y la economía de escala, por lo que una Pyme encuentra un rápido retorno de la inversión cuando migra sus aplicaciones a este modelo.

Un ejemplo claro es el proceso de backup de la información, el cual implica -cuando se tiene localmente- servidores, licencias y administración muy costosa; contratarlo con una empresa de internet es muy económico (desde US$50 mes) y soluciona rápidamente lo que antes era un problema complicado.

Aunque en Colombia la ola está apenas abriéndose paso, ya pueden identificarse las tendencias principales; Juan David Garzón, de la compañía Avanxo, una consultora especializada en computación en la nube, explica que, en su orden, las demandas principales en esta materia son el correo electrónico (cuya administración bajo el modelo tradicional de servidores propios consume demasiados recursos técnicos y financieros); el control de procesos de venta y servicio al cliente; y los procesos de negocio sencillos que puedan ser manejados con hojas de cálculo y aplicaciones de oficina estándares. Sin embargo, el trabajo más fuerte en una consultoría de este tipo es la gestión del cambio, para implantar en el personal los nuevos procesos. "En el caso de las Pymes resulta muy fácil la migración, mientras suele ser muy complicado en el caso de las grandes empresas", explica Garzón.

El sector gobierno también ha puesto sus ojos en la tendencia de moda. Microsoft ayudó el año pasado al Icfes a implementar una solución en la nube que ilustra bastante bien las bondades del modelo. El Icfes sufre dos veces al año una crecida súbita de consultas en la base de datos, debido a la publicación de los resultados de las pruebas de Estado, un hecho que ocurre solamente en marzo y septiembre, después de las pruebas para los calendarios A y B. Más de 300.000 estudiantes pueden llegar a consultar simultáneamente los resultados, durante apenas unos días.

Evidentemente, un modelo tradicional significaba instalar servidores y desarrollar aplicaciones que estarían subutilizadas el resto del año. La plataforma Azure, de Microsoft, es utilizada ahora para este propósito y el Icfes solo paga por lo que consume de acuerdo con la demanda.

Una solución para administrar la fuerza de ventas provista por Avanxo -creada por la empresa SalesForce- ha sido adoptada por Skandia, la caja de compensación Comfandi y más de 130 Pymes apoyadas por Fomipyme y Proexport. El año pasado, por primera vez una empresa del sector salud puso un pie en "la nube", con la adopción de la plataforma LotusLive, de IBM, para el trabajo colaborativo entre el personal médico de la EPS Occidental de Salud, en Cali.

Citrix, proveedor de soluciones de virtualización de servidores y escritorios, que es la plataforma tecnológica a la base del cloud computing, cuenta con más de 800 clientes en el país. La gerente de canales de Citrix en el país, Joana Jaime, estima que habrá un verdadero boom del cloud computing entre 2012 y 2013.

Computación en la nube parece un hecho irreversible y un asunto de competitividad. Una evidencia de ello es que la mayoría de los ingresos de Microsoft hoy provienen del modelo tradicional (licencias de software), "pero el futuro es 'la nube' y nos estamos adaptando a ese modelo", dice Ricardo Marulanda.

REVISTA DINERO. FEBRERO 7 DE 2011