sábado, 5 de marzo de 2011

Pasado, presente y futuro de la informática

En muchas ocasiones las ramas de un árbol no dejan ver el bosque, nos perdemos en infinidad de detalles nimios que no nos dejan apreciar la verdadera naturaleza del cambio que se está operando en la sociedad, ya sea a nivel social (revueltas en Medio Oriente), económico (generalización de las economías de escala) o tecnológico (asentamiento de la nanotecnología y la robótica). Lo mismo está pasando en el mundo de la informática.


En los últimos días algún lector de este blog me ha pedido una entrada sobre la presentación del iPad 2, aunque sospecho que con intención de poder dar rienda suelta a su propia frustración con respecto al poco uso que es capaz de sacarle a su propio iPod. Por contra, utilizando como referencia este evento, voy a dedicar este artículo a tratar de desenmarañar un poco las ramas para tratar de ver el bosque que se encuentra detrás de éstas.

Existe una definición que me viene como anillo al dedo en este artículo y la cual se cita sistemáticamente a lo largo del primer curso de Tecnologías (el plural es correcto, es lo único que obtuvimos en la última reforma educativa además de la reducción horaria) en todos los cursos de secundaria de este país:

"La tecnología es la aplicación coordinada de un conjunto de conocimientos (ciencia) y habilidades (técnica) con el fin de crear una solución (objeto o sistema tecnológico) que permita al ser humano satisfacer sus necesidades o resolver sus problemas."

Pues bueno, o yo estoy bastante confundido, o la mayoría de empresas que compiten en el mundo de la informática, ya sea a nivel de hardware o de software, parecen haberla olvidado. Se dedican a lanzar innovaciones sin sentido como un reclamo de mercado para tratar de sobrevivir en estos duros tiempos de cambio, un cambio previsto por todas ellas en un futuro próximo que nunca iba a terminar de llegar. Pues, por mucho que algunos se empeñen, las tabletas han venido a dar la estocada final a la era del ordenador personal (ya sé que suena a fanboy parafrasear a Steve Jobs, pero sigue leyendo para ver que razones aduzco para ello). Y yendo un poco más lejos, éstas serán la última innovación conceptual reseñable dentro del mundo del hardware de consumo, al llenar el último nicho que le quedaba por ocupar.

Pensemos un poco en el tema. La informática se masificó a principios de los años 80 con la aparición de los primeros ordenadores personales de consumo masivo. Su función primaria era permitir facilitar el acceso al gran público a tecnologías que habían estado utilizando las instituciones públicas y las grandes corporaciones durante los últimos 20 años. Durante los mágicos años 80 los ordenadores empezaron a cubrir un montón de necesidades inalcanzables (muchas de ellas creadas por las propias empresas) para el consumidor durante la década anterior. Muchas de ellas parecían simple magia: poder reeditar textos tantas veces como se quisiese; jugar interactivamente con el televisor; gestionar bases de datos (esto acabó con el trabajo de muchas secretarias); editar música, imágenes y vídeos; etc. Trata de imaginarte lo que era para un simple escritor poder modificar una y otra vez su novela hasta que alcanzase la perfección deseada y que su manuscrito se guardase en un simple disquete. Pero toda esta magia tenía un gran problema, la presentación y la usabilidad eran francamente horribles, producto de su herencia. Tanto a nivel de hardware (con teclados heredados de la centenaria máquina de escribir) como de software (con sistemas operativos de comando en línea) estas máquinas parecían estar preparadas para ser utilizadas únicamente por los ingenieros que las diseñaron. Obviamente todas las empresas empezaron un carrera desenfrenada para hacer los ordenadores lo más amigables posibles, tomando como referencia el mundo real. Así llegaron los entornos gráficos manejados con ratón y que simplificaban en principio las tareas más usuales, pero dejando todavía en manos de manos expertas tanto su configuración como su reparación (como cualquier electrodoméstico de la época).

Bueno, en este momento surgieron dos paradigmas bien distintos para enfrentarse a este problema dentro de las empresas:

  • Unas propugnaban una evolución desenfrenada a nivel de hardware que cubriese los defectos del software que corría en sus entrañas (el famoso binomio Wintel, monstruo creado por la mítica IBM).
  • Y otras propugnaban la optimización del software para aprovechar al máximo el hardware que poseía la máquina (Apple, Commodore).

Al final se impuso el primero de ellos, lo que llevó al segundo grupo a la desaparición o casi (Apple se salvó por lo pelos). Ahora bien, te pido que vuelvas a repasar la definición de Tecnología. En verdad, ¿cuál de estos dos paradigmas crees que se ajusta más?


A mediados de los años 90 llegó la explosión de Internet y de los teléfonos móviles. Internet prometía el acceso casi instantáneo a cualquier tipo de información mediante el uso de ordenadores en tu casa. Los teléfonos móviles permitían a la gente estar comunicados las 24 horas del día en cualquier lugar del mundo. Por otro lado, nada nuevo bajo el mar salvo que el primero de los paradigmas se había impuesto completamente y todo el mundo comparaba los productos a la venta en función de las características técnicas del hardware, hablando de megahercios y megabytes como si eso significase algo para ellos.


Obviamente la fusión de ambos conceptos tenía que llegar en algún momento, y por vicisitudes de la vida, la primera empresa en hacerlo fue una de las defensoras del segundo paradigma, Apple, con el iPhone (ya sé que había muchos modelos antes que hacían esto, pero ninguno fue capaz de cautivar a la masa de consumidores). Una empresa resurgida de sus cenizas gracias a la evolución lógica del walkman del Sony, que no quiso ver hacia donde iban los tiros en el mundo de la música y perdió penosamente uno de sus mercados cautivos hasta el momento.

Y te preguntarás porque te cuento todo esto, qué que tiene que ver con las tabletas. Pues la verdad es que todo. Las tabletas eran el siguiente paso lógico en la evolución de los teléfonos móviles, ya que éstos siempre tendrán una limitación de tamaño insalvable (tienen que entrar en la palma de la mano), que los hace inadecuados para suplir con solvencia todos los nichos que ocupan los ordenadores en el mundo actual. Y te recuerdo que la función primaria de éstos es facilitar la vida a sus usuarios, no complicársela (aunque a algunos de los lectores de este blog parece gustarles el reto).

Vamos a ver. ¿Qué necesidades tiene un usuario medio en la actualidad? ¿Para qué utiliza su ordenador a diario? Pues si no estoy muy confundido, fundamentalmente para leer páginas en Internet y correos electrónicos, chatear, ver videos, escuchar música, etc. Los usuarios más avanzados se dedican a editar archivos multimedia, crear programas o generar contenido para la Red. Pero no nos hagamos muchas ilusiones, son los menos. Además, por experiencia propia, sé que cuando un usuario medio tiene que enfrentarse a alguno de los pequeños defectos del paradigma ganador en la batalla de los años 80, ya sea en forma de incompatibilidad de hardware con el sistema operativo, virus o cuelgues sin sentido, simplemente grita auxilio. Es un consumidor acostumbrado a que sus electrodomésticos pasen de funcionar correctamente a morir irremediablemente, no está acostumbrado a los comportamientos erráticos que presentan los ordenadores.

Apple atendiendo tanto a lo solicitaba el consumidor medio, dejar de estar confuso, como a las necesidades reales de éste creo el iPad. Éste tenía el sistema operativo del iPhone, o sea a prueba de cualquier inútil, una generosa pantalla de casi 10 pulgadas (los que quieren una de 7 pulgadas realmente deberían plantearse comprar un móvil de gama alta) y una batería de larga duración. Y cuando apareció en las pantallas de los televisores del todo el mundo muchos se preguntaron para que servía. Pues para lo que hace un usuario medio habitualmente: leer en la cama o en el sillón de casa, jubilar múltiples gadgets, ver vídeos, escuchar música, jugar al buscaminas, etc. Pero de regalo vinieron otras: eliminar la mayor parte del papel de tu vida, no tener que cargar con un ordenador portátil o netbook, olvidarte de las servidumbres de la batería, despreocuparte de los virus y los antivirus, etc.

Supongo que para todo aquel que no tenga una tableta sonará extraño, pero desde que se empieza a utilizar una se reduce drásticamente el tiempo que pasas ante el ordenador, todo se vuelve más sencillo y amigable (y da lo mismo que sea el iPad o de los modelos de la competencia). El consumo de contenido se realiza todo en ella y la generación de éste queda circunscrito al uso del ordenador (te recuerdo que ésto es propio sólo de los usuarios avanzados).

La llegada del iPad 2 ha significado la reedición de la lucha de los dos paradigmas. Mientras Apple ha dado un simple lavado de cara al hardware que acompaña a su tableta (mejor procesador, más delgada e inclusión de un para de cámaras), la competencia se ha embarcado en una lucha sin cuartel por presentar el mejor hardware posible sin prestar mucha atención al software. Si lo piensas bien, Steve Jobs se pasó la mayor parte de la keynote hablando de cuberturas mágicas y aplicaciones, el hardware fue casi secundario en su presentación. Por contra la competencia hace inciso en las bondades de la potencia y conexión de sus máquinas, llenando de cifras increíbles los blogs tecnológicos y de babas las caras de los usuarios avanzados. Si eres uno de estos, tranquilo, en breve tendrás tabletas con procesadores de cuatro núcleos y pantallas en 3D, aunque no existan aplicaciones que hagan uso de  esas innovaciones técnicas.



En el fondo, aunque parece que a la gente se le olvida, lo importante no es que lo esconde dentro la tableta sino lo que es capaz de ofrecerte en la pantalla y el uso que haces de ella. Y esto depende sólo de las aplicaciones que contenga y lo optimizadas que estén para la máquina en cuestión. De ahí que me quede con una frase que he leído hoy en TechCrunch: "las aplicaciones son como la especia de "Dune" (1984): quien controle la especia, dominará el universo entero".

Siendo realistas, un usuario medio nunca utilizará una tableta para hacer fotografías (para eso ya tiene su teléfono móvil), editar vídeos en alta definición (iMovie nunca dejará de ser un puro entretenimiento de 10 minutos) o escribir un artículo como éste. Éste la utilizará para leer un blog, mirar un dato rápido en una base de datos, consultar un PDF y subrayar sobre él, hacer una lista de la compra, aparcar a un niño con un juego en el salón, ver una película en el tren y todos los usos que se te ocurran. Lo cual no supone tener abiertas 20 aplicaciones simultáneamente o llenar la tableta con 15 películas en alta definición (una estupidez teniendo en cuenta que la pantalla es de 10 pulgadas), y también justifica la necesidad de tener un ordenador de referencia, ya que, aunque se quiera, las tabletas no llegan a sustituirlo.

Por otro lado, con respecto a los USB y las lectoras de tarjetas, que son tan necesarias para algunos. Pues al igual que el disquete ha muerto sin hacer mucho ruido, estas también desaparecerán en un futuro no muy lejano sustituidas por la mítica Nube. De entrada, para el que no lo sepa, yo conecto mi iPad una vez al mes al ordenador y lo hago simplemente por mantener la copia de seguridad actualizada (aprovechando la tesitura para recargarla con nuevos vídeos), las demás transferencias de datos las realizo de forma inalámbrica. Y mira tú por donde ese es el futuro.

En los próximos meses la mayoría de compañías de telefonía y de tabletas presentarán los viejos chips NFC como lo último en tecnología. Al principio se utilizarán simplemente para realizar micropagos, pero en poco tiempo se utilizarán para identificar a los usuarios ante cualquier ordenador, estableciendo automáticamente las preferencias de éste y accediendo a sus datos en la Red, que serán todos. La llegada de los terminales tontos se acerca (AOL no estaba confundida, simplemente se adelanto a su tiempo). Servicios como Dropbox o Google Docs se generalizarán y los sistemas operativos como los conocemos perderán su propia identidad convirtiéndose en meros navegadores adaptados a la máquina donde se hospedan. Nuestras canciones, películas, documentos y libros se almacenarán a miles de kilómetros de donde nos encontremos, pudiendo acceder a ellas en todo momento y en cualquier dispositivo, sin importar la potencia de éste.

En fin, ya sé que me he alargado más de lo habitual pero quería hacer un artículo exhaustivo. Mi consejo final: "simplemente piensa en tus necesidades reales y comprate la tableta que las cubra, no esperes la tableta perfecta porque sencillamente no puede llegar nunca".

21 comentarios:

  1. Con esta entrada llego a varias conclusiones:

    1. Ayer sábado por la tarde te aburristes y no tenias nada mas que hacer.

    2. Ayer sábado por la tarde te aburristes y no tenias nada mas que hacer.

    3. Ayer sábado por la tarde te aburristes y no tenias nada mas que hacer.

    Ahora a esperar que alguna persona (aburrida) se lea este tocho para poder comentar algo in-coherente y regalarle un galli-fante ya que no tiene nada mejor que hacer que leer este ladrillaco.

    ResponderEliminar
  2. Década del ordenador personal, década del boom de internet...

    Bueno, en mi humilde opinión, los 90 fue la década del nacimiento de Internet (para los usuarios) y la actual será la del auténtico boom de internet (nube). El uso masivo de esta tecnología trae consigo nuevas máquinas, terminales y métodos para acceder a ella, los cuales nunca habíamos visto.

    Tanto las tabletas como los smartphones son los primeros dispositivos móviles producto de internet y no serán los únicos, ya que durante los próximos años surgirán una masa de todo tipo de dispositivos, fusiones de tecnologías y aparatos para permanecer conectados a internet y estar usando los servicios de la nube las 24 horas del día.

    Para mi, el iPad es el primer dispositivo para usar internet de una forma mas cómoda, práctica y humana.
    Y como dentro de poco, los usuarios no necesitaremos instalar aplicaciones ni guardar información en un soporte físico, la tableta me parece un sistema muy cómodo y rápido, ya que lo único que necesitaremos es un terminal desde el cual poder conectarnos a internet, usar nuestros programas y acceder a nuestra información.

    ResponderEliminar
  3. LO QUE SIGUE ES UN CONTRA-POST, NO UN COMENTARIO. INZERT, NO LEAS.

    No lo entiendo. Primero dices que las tabletas darán la estocada final al PC por mucho que algunos nos empeñemos en lo contrario (afirmación que me parece una estupidez de proporciones macroscópicas). Al final dices que no serán sus sustitutos. ¿En qué demonios quedamos?

    Para mí, las tabletas no va a cambiar el concepto de PC, ni lo van a hacer desaparecer. Sólo van a mostrar que a 95 de cada 100 usuarios un PC les queda grande, en capacidades y en complejidad. Estoy de acuerdo en que esos usuarios estarán mejor con una tableta en una mano, y una cerveza en otra.

    Hace unos meses en este mismo foro preguntaba, y lo hacía en serio, si el iplas servía para mis necesidades. La respuesta fue negativa a todo lo planteado.

    Lo siento, no veo a mis compañeros de curro rutando tuberías en un iplas, ni redactando informes, ni calculando reactividades. Pero no hace falta irse a entornos de trabajo tan profesionales. No me imagino a ningún estudiante universitario redactando un informe de prácticas en la mierda de teclado del iplas, ni en su paupérrima pantalla. Fanboys y adictos al sadomaso los hay en todas partes, de modo que no me cabe duda que habrá quien lo haga, pero no por ello pasa a ser óptimo.

    Lo siento, pero cuando veo a alguien que dice "este producto va hacer desaparecer a tal otro, por mucho que algunos se empeñen en lo contrario", sé que me encuentro delante de un Fanboy en el sentido etimológicamente más riguoroso de la palabra.

    No entiendo por qué os empeñais en ver que aquellos productos que os gustan, son tan superiores a otros que a éstos no les queda otro destino que la desaparición.

    No lo creo, colegas. Yo creo que tabletas y PCs son productos distintos, orientados a usos y usuarios distintos, que ambos seguirán saludablemente caminos separados, y ninguno acabará con el otro. Tan absurdo sería llevarse una estación de trabajo al metro para entrar en el tuenti, como ponerse a hacer modelos de elementos finitos en un iplas.

    (SIGUE)

    ResponderEliminar
  4. (SIGUE)

    También te recomendaría que no escupas tan alto al simplificar la evolucíon del soft y el hard en dos tendecias, una buena (Mac) y una mala (Wintel), aunque entiendo que tal obsesión por buscar siempre una dicotomía de "buenos y malos" es muy socialista.

    Te recuerdo que tu micro es un Intel, y si puedes fardar de que tienes los núcleos que tienes, las unidades de coma flotante que tienes, y el controlador de memoria que tienes, es en gran medida por el empuje que el enorme mercado de windows y su mediocre soft dieron al hardware. Eres un beneficiario directo y explícito de aquello que criticas, y a eso se le llama hipocresía.

    Soy el primero en echar espumarajos por la boca al ver que AutoCAD 2011 ocupa varios gigas en mi disco duro, pero no se ha llegado ahí porque todos los que trabajen del lado Wintel sean idiotas, como les gusta creer a muchos de la manzanita. Si quien desarrola el soft sabe que depurar un programa le lleva 4 meses y 30000 dólares y en 2 va a tener el hard capaz de tragarse su truño-programa de forma óptima por 60 dólares que va a pagar el usuario, símplemente no lo va a depurar. ¿Cuanto costaría dejar AutoCAD en la mitad de tamaño? ¿Cuánto cuesta un disco duro de 2 Teras? ¿Cuánto pasará hasta que por el mismo precio tengas 4 Teras en vez de 2? Blanco y en botella.

    Esto ni es intrínsecamente bueno, ni es intrínsecamente malo. Pierdes en el lado Soft, ganas en el lado Hard.

    Mac no se centró en depurar código porque fueran "los buenos". No les quedaba más remedio porque símplemente su hard no avanzaba al mismo ritmo, y menos aún en paridad de precio. Que sí, que sí, que el hard de Mac era infinitamente superior a la basura que ofrecía Intel y toda la mierda fanboy que podais decir. Admito también teorías conspiranóicas si eso os sirve para relajar el esfínter. Que sí, hombre, que sí. Por eso hoy los Mac calzan i7´s y graphs de ATI, no te jode.

    Todo tiene su lado positivo y su lado negativo. No entiendo ese empeño en dividir la realidad en "paradigmas" de lo bueno y correcto, y lo malo y perverso.

    Yo me limito a ver opciones distintas que cuadran mejor o peor con mis necesidades, no buenos y malos.

    Aunque eso no quita para que los mackeros seais unos pijos, y los linuxeros unos maricas, por supuesto.

    ResponderEliminar
  5. Radiactivo-man. En ningún momento he dicho que el ordenador vaya a desaparecer como herramienta industrial o generadora de contenido, si lees con atención mi artículo me refiero al ordenador como producto de consumo masivo. Aquí lo que importa no es un equipo para utilizar en una central nuclear o para controlar la torre de control de un aeropuerto, los cuales se seguirán fabricando y mejorando a marchas forzadas. En algún momento existirán ordenadores cuánticos de una potencia inimaginable pero cuyo uso será únicamente corporativo o de investigación.

    La cuestión que subyace en mi artículo y que parece que la mayor parte de la industria está de acuerdo en ello, es que para que fabricar un dispositivo superpotente para consumo masivo cuando las conexiones de Red serán casi instantáneas. La ubicuidad llegará más pronto que tarde. Ya los grandes estudios de Hollywood han firmado un proyecto para acabar con la descarga o soporte físico de sus películas, sólo se podrán ver en streaming en los dispositivos que tengas contratados.

    Yo me imagino que dentro de 10 años al entrar en una habitación de un hotel la televisión capte automáticamente mi identidad, ya sea por reconocimiento ocular o por mi móvil, y cargue directamente mi cuenta, accediendo instantáneamente a mi biblioteca multimedia y conectándose con la granja de servidores donde tenga potencia de cálculo y espacio contratados.

    En cuanto a la entrada de datos, después de ver las últimas versiones de Dragon Dictation, los avances de Mac OS X Lion, las referencias que están saliendo sobre Windows 8 y el funcionamiento de la beta del traductor universal de Google (y viendo la inutilidad de mis alumnos con el teclado), que la comunicación verbal o subvocal con el ordenador pronto estará con nosotros. Ya he leído en algún foro que algunos estudiantes utilizan estas tecnologías para registrar las clases y realizar la mayor parte de sus apuntes con el clásico corta y pega.

    Y si sigues queriendo escribir en un teclado, te lo compras o utilizas el de la pantalla, que tendrán casi seguro una respuesta háptica que harán que se sientan reales.

    En resumen, seguirán existiendo ordenadores pero no 100 empresas que puedan vivir de ellos. En cuatro o cinco años las cifras hablarán por si solas, cuando la venta de tabletas superen ampliamente a la de ordenadores (algo que ya pasa con respecto a las de portátiles con respecto a los sobremesa).

    ResponderEliminar
  6. Aunque el duelo entre radiactivo y Jesús esta casi establecido, les recomendaría a los dos que no profundizaran demasiado en detalles que no conozcan en extensión, optimizar un programa, por ejemplo, nada puede tener que ver con su tamaño físico en memoria de almacenamiento, ni muchísimo menos, imagino que ha sido un desliz conceptual de ambos.

    Por lo demas coincido con radiactivo en sus tesis.

    ResponderEliminar
  7. Lo primero y por alusiones diré a Chuchi que saco todo el jugo a mi Ipod. El problema es que tiene poco jugo que sacar; escuchar música o ver vídeos. Es para lo que lo compré y para lo que me sirve. Me quejo de otras cosas. Como no poderme pasar las canciones con un simple arrastra y pega si no uso un programa alegal.

    Sobre el resto te diré que coincido contigo en algunas cosas. Por ejemplo en que gracias a Apple y Google la tecnología se está desarrollando a marchas forzadas. En que gracias a esto al usuario se nos presentan a precio "asequible" tecnologías hasta ahora prohibitivas. Y que gracias a esto estamos consiguiendo mejores dispositivos para trabajar y aprender.
    No niego eso. Igual que no niego que en este momento las tablets son un elemento magnífico para el ocio o el trabajo.
    Lo que niego es el tener que decir "wana" a algo porque lleve una manzanita serigrafiada.
    El decir que Steve Jobs inventó las "tablets" es risible. Cuando estaba en mi otra empresa el director de I+D ya tenía un tablet-Pc. Obviamente tenía un desarrollo incipiente con una pantalla táctil desastrosa y un tamaño poco más que un pc ya que llevaba también teclado. Uno de sus mayores males es que trabajaba con Windows XP, con lo que su rendimiento era bastante deplorable. Y por supuesto el mal mayor era el precio, ya que hablábamos de un "cacharro" de más de 2.000€.
    Con esto, lo que quiero decir es que no seamos "más papistas que el papa". Que porque algo salga de la factoría de Apple no es lo mejor ni lo último.

    ResponderEliminar
  8. Mi segunda discrepancia es la valoración del sistema cerrado de Apple. Todo el mundo comenta maravillas del IOS y va bien, no lo niego, pero mi pregunta es cual es el precio a pagar por ello. Estar completamente a merced de lo que el tío Jobs decida. Tener que pagar por usar cualquier cosa. Por no hablar ya de no poder disponer de una conectividad adecuada con otros dispositivos. Y en eso Chuchi no puedo estar más en desacuerdo con tus comentarios. Puede que en un futuro cercano nuestros contenidos estén en la web, pero hoy por hoy sigue siendo necesario poder conectarse con muchos dispositivos. Y no hablo solamente de la transferencia de datos. Hablo por ejemplo de poder conectar sin problemas el manos libres de mi coche a un Ipod o de usar un Ipad para reproducir una película en mi televisor.
    Hoy en día los cables siguen siendo necesarios y parece un contrasentido que cada empresa saque sus cables y conectores solo por el echo de decir que es mejor. Si hasta se está tratando de estandarizar el conector de los cargadores de móvil...
    Además como crítica a Chuchi respecto a la nube decirle: ¿Has tratado de conectarte a esa nube fuera de tu red Wifi?. A veces esto en un país como España donde intenet es caro y malo, se convierte en un padecer, y no quiero ni pensar en no poder acceder a un contenido porque en ese momento no tenga acceso a la red. Que esto es el futuro, está claro. Pero el presente es que se necesitan conexiones, cables y almacenamiento físico en local.
    Igualmente estoy de acuerdo con que IOS en un sistema estable he intuitivo, pero creo que se está estancando. Mientras que la competencia (Android) avanza a grandes zancadas, Apple regocijándose con lo bueno que es actualiza el IOS en pildoritas que poco añaden a las anteriores. Aún es pronto para valorar Honeycomb, pero por lo menos y a priori a mi si que me parece un sistema digno de desbancar a IOS.

    Respecto a los comentarios de si es mejor software optimizado o hardware bestia, creo que no tienen que ver con el tema, ya que es algo que va intrínsecamente ligado. Cuanto mayor y mejores son los datos con los que trabajamos mayor necesidad de máquina aparece. Según parece todas las tablets menos el Ipad tratan de vendernos hardware. Creo que no. Tratan de vendernos que tendrán mayor capacidad para hacer cosas que ahora probáblemente un Ipad no podría hacer. Que alguien solo la necesita para leer y navegar por internet, pues perfecto le vale con lo que tiene. Pero si volvemos al argumento de que en el futuro la tablet se impondrá y llegará a sustituir al Pc necesitará potencias de Pc para ejecutar aplicaciones más y más complejas. Por qué un arquitecto no puede irse a la obra con un Ipad y sus planos de obra donde los visualice y modifique "in-situ". Pues hasta ahora porque la máquina (Ipad) no puede mover esos datos (y por si alguno decide comentarlo decir que la adaptación esa de Autocad que existe va bastante lenta y solo permite pequeñas visualizaciones). Es decir, con más máquina sería posible.

    ResponderEliminar
  9. Y mi última disertación, un desacuerdo con Radioactivo-Man. Coincido en que estas tablets no son rival ni sustitutivos de los PC's de "sobremesa". Para mi son el sustituto natural de los portátiles. Unos elementos que han proliferado en los últimos tiempos y que de portátiles para mi solo tenían el nombre. Por mi trabajo he tirado bastante de portátil y puedo garantizar que tras 30 minutos cargando del hombro con un maletín con un cacharro de tres Kilos dentro, lo de la portabilidad parece una utopía.
    Mi discrepancia viene con el argumento de que un tablet no sirva para trabajar. ¿Qué es trabajar?. ¿Estar en un estudio generando modelos en 3D?. Obviamente para esto no. Pero por ejemplo mi trabajo consiste en poco más que escribir (words, excel,...), poder ver y responder e-mails y tener un dispositivo en el que reproducir imágenes o videos. ¿Alguien piensa que no me sirve con un tablet?. Y para muestra un botón. Hemos conseguido convencer a los informáticos de nuestra empresa (más castañeros que alguien que no sabe lo que es linux) de cambiar nuestros mierdosos portátiles por tablets. Por ahora se va a hacer una prueba con una Galaxi Tab con teclado y si funciona todos tendremos cacharros de esos. Pero extrapolo esto a cualquier trabajador que necesite movilidad y para el que la potencia de hardware no sea necesaria.
    Y aquí enlazo con el problema de Apple. ¿Por qué en mi empresa se han descartado como tablets los Ipads y como teléfonos los Iphone?. Por la incompatibilidad que presenta su software con el nuestro y la cerrazón en todas las aplicaciones y conexiones. Algo que con los terminales Android no sucede aunque tengan otros muchos problemas.

    La conclusión de este ladrillo es:
    - desde mi punto de vista las tablets son el futuro y no pienso negarlo.
    - cuando pueda y/o la necesite no dudo que adquiriré una.
    - no decidiré el modelo a adquirir en base a preferencias absurdas, ni a partidismos "marcarios", sino en base a lo que me ofrecen, lo que necesito y el desembolso económico que tengo que realizar. Puede que sea un Ipad, puede que sea un Galaxi Tab, puede que sea un Motorola Xoom,... no lo se porque aún es algo que no me he planteado. Pero tengo claro que lo que sea será comprado tras un análisis racional y no con un análisis en el que la emocionalidad haga que me convierta en un "fan boy" o en un "anti fan boy".

    Lo siento, pero es lo que tenemos los pocos que no somos ni del Madrid ni del Barça, que nos da igual quien gane mientras no nos me afecte.

    ResponderEliminar
  10. Yo creo Jesús que es el momento de que te plantees poner o un foro, o hagas a estos dos grandes señores colaboradores de tu blog, je je.
    En lo que va de semana han escrito mas que tu!!!

    ResponderEliminar
  11. Es normal Bierce 21; estás comparando a dos ingenieros trabajadores en el sector privado, con un físico con (especialidad en filosofía-cuántica) que no trabaja... perdón que es funcionario-maestro.

    Es lógico que nosotros trabajemos más incluso en los blogs que no son nuestros.
    Y lo mejor de todo, seguro que optimizamos mejor nuestro tiempo y tardamos menos en escribir y decir lo que pensamos.

    ResponderEliminar
  12. Me ha llegado al alma lo de filosofía cuantica, si no recuerdo mal mas bien era electronica para aficionados no??

    He de reconocer que tengo algo de filósofo y radiactivo es como es porque tiene alma de físico aunque tenga corazón de ingeniero.

    ResponderEliminar
  13. Chuchi nos lo vende como que era muy difícil, pero seguro que no pasa de electrónica básica... :-)

    Radioactivo-man es un tipo peculiar... por eso solo puede ser ingeniero aunque tenga alma de muchas otras cosas.

    ResponderEliminar
  14. Bierce 21, mi formación es como Ingeniero Electrónico y antes de dedicarme a la industria Nuclear, estuve 5 años programando autómatas.

    ¿Cómo que optimizar un programa no afecta al tamaño final? ¿Es una broma?

    Te pongo un ejemplo, un control de motores en micropasos por PWM con una interfaz I2C con el micro principal, y que hacía unos cuantos cálculos chorras para gestionar autónomamente dos ejes de un sistema automático respondiendo a las peticiones del micro principal.

    Versión 1, programada en MPLAB directamente en ensamblador, a golpe de horas y más horas, incluyendo más de un dolor de huevos, y más de dos berrinches por el camino. Resultado, 1.2 k-instrucciones en la memoria de programa pese al mediocre estilo de un programador principiantes y nefasto (a saber: ¡MUA!).

    Versión 2, hay que hacer un pequeño cambio, nada demasiado significativo, pero como aún tengo la entrepierna irritada tras la versión en ensamblador, esta vez me voy a lo fácil y programo en C, compilando en CCS. Las diferencias en el programa son menores, pero el código generado salta las 2 k-instrucciones (no recuerdo el pico).

    Obviamente valió la pena. Tardé una décima parte del tiempo y me ahorré vaselina, pero el código casi duplicó su tamaño sin motivo aparente.

    Yo no me dedico a programar aplicaciones para PC, y asumo que debe haber diferencias significativas con los autómatas y microcontroladores, y que tal vez el ejemplo de AutoCAD no sea el más acertado, pero vamos, no me niegues que la mano del programador puede hacer milagros (4000 genios del MIT currando 18 horas diarias durante 7 años consiguieron meter el programa de guiado del Apollo en 38 k-instrucciones) y que los ciclos de desarrollo del mercado de masas rara vez permiten optimizar de verdad los recursos.

    Esa es, para mi, una de las claves del éxito de Apple. La mágica "responsividad" de sus productos no viene de su hardware, sino de lo bien aprovechado que está.

    Dicho esto ¿me puedes explicar cómo es posible que un programa tan chorra como Nero-lite ocupe 100 megas, y CDBurner haga lo mismo y más ocupando 11? ¿De verdad la forma de programar una aplicación no influye en el tamaño final? No es un desafío, es una consulta.

    Estoy convencido de que si hiciésemos un "hola mundo" con un compilador moderno, tendríamos un ejecutable de 16 megas (no te lo tomes al pie de la letra, que es una coña).


    Y ahora a Fredy.

    Solemos estar en sintonía y rara vez te enmiendo la plana, pero esta vez tengo que hacerlo.

    La realidad es que los Físicos son Seres Supremos. Las diversas Ingenierías no son más que subconjuntos de la Física Aplicada (esto no es más que una forma desesperada de autoconvencerme de que tengo algo de Físico).

    Yo no me meto con Suso porque sea Físico ni le desprecio por ello. Al contrario. Podría y debería haber sido un investigador productivo para la sociedad, y hoy debería estar desarrolando los materiales para el próximo chip de Apple, en vez de pontificando sobre el cacharro mientras se rasca la chorra.

    El problema de Suso no es que sea Físico, ni siquiera que sea un funcionario parásito chupasangre (valga la redundancia). Ese, ciertamente, no es su problema, sino tuyo, mío y de todos los que le pagamos el sueldo a él y a otros 3.5 millones de sanguijuelas.

    El problema de Suso es que le gusta mucho dividir las cosas entre buenos y malos, aciertos y errores. Y obviamente, él está con los buenos, y es quien acierta.

    Yo no tengo ese problema. Yo sé que SOY de los malos. Y me gusta....

    Cuando llegue al Poder (y llegaré, es sólo cuestión de tiempo que consiga el plutonio) os vais a cagar.

    ResponderEliminar
  15. ay que majos todos. algun dia ire a veros a benavente :D

    ResponderEliminar
  16. Como parte de la industria del Software, tengo que dar razón a Radioactivo, la habilidad del programador (o grupo de trabaj), depuración, elección de compilador, etc... influye muy sensiblemente en el tamaño del programa (aunque el ejemplo del AutoCAD no sea de lo mejor)

    En caunto al problema Tablet vx PC, lo primero es aclarar que el público objetivo no es el mismo, aunque pueda coincidir en algunas partes, y es imposible sustuituir los PC por tablet, tanto por su potencia, como por su usabilidad, capacidad, etc...

    Chuchi es demasiado fanboy de Apple, y está entrando en esa extraña dinámica de mirarse el ombligo y asombrarse de lo bien que luce...hh

    ResponderEliminar
  17. Radiactivo, subestimas mis conocimientos sobre ti, se perfectamente que eres un crack, clonpañero!!.Creeme, la optimización de un algoritmo, no implica ni mucho menos, la reducción de su tamaño en memoria, hoy en día se optimiza a ciclos de reloj, no a tamaño en memoria, porque eso es lo que sobra y mucho, y ambos compromisos (memoria y ciclos) suelen ser dificiles de alcanzar, salvo en casos muy reducidos y pequeños programas, como el ejemplo que me pones del PIC.

    En el caso del Nero y del Burner, habría que ver en detalle ambos programas, sus funcionalidades y las funcionalidades que tu utilizas (para que percibas que hacen lo mismo), sus mecanismos de acceso a memoria, su protección de pila a sobre-escritura de buffers etc. Quiero decir, que la informatica, o mejor la ingeniería del software, y la computación en general, siempre han tenido un doblete con el hardware, por un lado para aplicaciones diarias siempre ha sido sobrado siempre (incluso el autocad o 3dmax estudio etc, puedes encontrar un bicharraco que lo mueva sin problemas), pero en el caso de algoritmía realmente sería, pero seria de verdad, siempre se ha atragantado, pero amigos, aquí la culpa es del humano atascado en los problemas NP

    ResponderEliminar
  18. Tras ver los tochos que está generando esta entrada llego a las siguientes conclusiones:

    1- Hace falta el chat ya.
    2- En caso de imposibilidad un foro puede ser válido.
    3- Las entradas en las que se menciona algo de Apple tienen más comentarios. Además estos son más largos y más mordaces de lo habitual.
    4- Los físicos son unos seres con grandes conocimientos apropiados para .... dar clases a tarugos (lease tarugo en el sentido menos despectivo de la palabra) de 15 años.
    5- Los ingenieros estamos a años luz de los físicos en conocimientos, pero somos más guapos y listos. Por supuesto la tenemos más grande y la sabemos usar mejor.
    6- En el mundo existen los buenos (fanboys) y los malos. Los que estamos en el medio simplemente no existimos.
    7- Radioactivo-man amenaza con plutonio. Yo por si acaso reamirmo publicamente mi sintonía y amistad con él.
    8- Gracias a Apple el mundo es un lugar mejor, más limpio y plagado de buenas personas. Adoremos todos al dios Jobs...

    ResponderEliminar
  19. ¡COÑO!

    ¡ANDA LA LECHE!. Pfff, qué vergüenza, macho. ¿Crack?. Pero si no me he dado cuenta hasta ahora de quien eres, Bierce 21. Manda huevos...

    En fin Clon, un abrazo fortísimo para los tres. No entro casi nunca en el facebus, pero he visto algunas fotos y está PRECIOOOOSAAAAA. Se me cae la baba.

    Lo dicho, un abrazo.

    (Jó, qué pringao soy...).

    ResponderEliminar
  20. Fredy, en respuesta al punto 5,lamentablemente, en mi caso tendría que cambiar de estado inercial y confiar en una transformación de Lorentz...

    Pero bueno, aunque sólo sea por corporativismo, aceptamos barco.

    ResponderEliminar
  21. Un abrazo radiactivo-man!!! Lo dicho, eres un crack!!!

    ResponderEliminar

No dudes en comentar este artículo si te apetece. Sólo pedirte un pequeño favor: "no utilices abreviaturas que atenten contra nuestra lengua común".