Insectos ciborgs para misiones peligrosas de espionaje

Insectos con injertos tecnológicos, encontró la manera de aprovechar la energía que genera el movimiento de las alas para operar instrumentos en la observación de situaciones peligrosas, informó la Universidad de Michigan.

HTC Ville, el móvil ultra delgado

La competencia por el sector de los teléfonos inteligentes hace que los productos busquen diferenciarse de distinta manera. Este es el caso del nuevo terminal de los de HTC.

Nuevas MacBook Air de 15 pulgadas en el 2012

Apple suele actualizar los modelos de sus ordenadores, a nivel hardware, cada unos cuantos meses para no quedarse estancados. Algunas actualizaciones sólo mejoran un poco el almacenamiento y la velocidad en lo que al procesador y a la memoria RAM de refiere y, otras, viene con más novedades.

Descargar Linux Mint 12

Linux Mint 12 es un nuevo paso hacia delante, utilizando las nuevas tecnologías y un escritorio completamente nuevo. Linux Mint 12 "Lisa" Gnome 3 y MGSE Linux Mint 12 viene con un escritorio completamente nuevo, construido con Gnome 3 y MGSE.

Rio seco en Marte

Recientemente, la Agencia Espacial Europea (ESA) ha publicado unas fotografías, enviadas por la sonda europea Mars Express, que evidencian que el planeta rojo era recorrido por grandes cantidades de agua hasta hace menos tiempo del que se pensaba.

Lo ultimo de la tecnologia en tu E-mail

'Ardi' releva a 'Lucy' como el ancestro común de humanos y grandes simios


Hace seis millones de años, quizá algo más, hombres y chimpancés tuvimos un ancestro común. Luego la genética de ambos divergió, la evolución y el tiempo hicieron su trabajo y hoy somos especies emparentadas pero bien distintas. El reto mayor de la paleontología es la búsqueda de ese antepasado lejano. El antes mal llamado 'eslabón perdido' sigue perdido, aunque estamos algo más cerca de verle la cara gracias a uno de los homínidos más antiguos hallados hasta ahora. El 'Ardipithecus ramidus' vivió en África hace 4,4 millones de años y el estudio exhaustivo de sus fósiles por parte de un equipo multidisciplinar da un salto atrás en el tiempo respecto de los anteriores homínidos más viejos, aportando nueva luz sobre la escisión del linaje humano y el de los grandes simios.
Diecisiete años de trabajos y la colaboración de 47 científicos de 10 países -España entre ellos-, se sustancian este viernes en un número extraordinario monográfico de la revista 'Science'. Su protagonista es 'Ardi', una hembra de 'Ardipithecus' a la que pertenece el esqueleto más completo de los al menos 36 especímenes desenterrados entre 1992 y 2008 en Aramis, en la región de Afar (noreste de Etiopía), dentro del llamado Proyecto 'Awash Medio'. 'Ardi' tiene 4,4 millones de años de antigüedad y es más de un millón de años más vieja que 'Lucy', el célebre fósil de 'Australopithecus afarensis' desenterrado en 1974 apenas a unos kilómetros de distancia en la región africana reconocida como la 'cuna de la Humanidad' por la abundancia de fósiles primitivos.
Por simplificar, en este duelo de reinas homínidas podría decirse que 'Ardi' releva a 'Lucy' en el trono de la paleoantropología, donde la antigüedad es un grado y cuanto más cerca del origen mayor relevancia tiene el hallazgo. El 'Ardipithecus' no es, desde luego, el último peldaño antes del antecesor común pero probablemente compartió varias de sus características y, sobre todo, ilustra un período de la evolución humana anterior al de la rama de los 'australopithecus' - distintas especies que vivieron hace entre 4 y 1 millón de años- , muy desconocido hasta ahora por falta de evidencias fósiles.
De 'Ardi' se encontró la pelvis, gran parte del cráneo -'hogar' de un cerebro muy pequeño-, la mandíbula inferior completa y las extremidades. Pesaba unos 50 kilos y medía 1,20 metros de altura.
Vivió en lo que entonces era una zona boscosa. Su nombre científico significa 'mono terrestre', aunque el examen anatómico indica que trepaban a los árboles a cuatro patas y en el suelo optaban por el bipedalismo, más torpe y precario que el de los 'australopithecus' pero ya erguidos. Por la forma de su extremidades no parece que anduvieran sobre los nudillos, como los chimpancés y gorilas, ni que pasaran o mucho tiempo colgados de los árboles o columpiándose.
Esto cuestiona la tesis de que los grandes primates actuales habían conservado rasgos de ese ancestro primigenio, de modo que la locomoción de éstos hoy día sería herencia del pasado lejano. Y sacude otra creencia, la de que la locomoción bípeda exclusiva, presente ya en la familia australopiteca, se desarrolló sólo como respuesta a la migración de estos primates a las llanuras de pradera africanas.
Mal espejo
Los investigadores recalcan que varios de los rasgos más singulares de 'Ardi', algunos primitivos compartidos con los primates predecesores y otros 'derivados' presentes también en homínidos posteriores, no aparecen en los chimpancés y grandes simios africanos de hoy. Todo apunta a que éstos han cambiado mucho desde que formamos con ellos un único linaje, de modo que esos grandes monos son hoy «un mal espejo' de ese antepasado común y para entender nuestra propia evolución desde entonces.
«En 'Ardipithecus' tenemos una forma no especializada que no ha evolucionado mucho en la dirección del 'Australopithecus'.
Cuando vas de la cabeza a los dedos del pie lo que ves es una criatura mosaico, que no es ni chimpancé ni es humano, es 'Ardipithecus», subraya Tim White, del Centro de Investigación sobre la Evolución Humana de la Universidad de Berkeley, y uno de los investigadores principales del proyecto.
En el cuadro investigador figura Nuria García, del departamento de Paleontología de la Universidad Complutense y del Centro de Evolución y Comportamiento Humanos. El número especial de 'Science' incluye 11 artículos, uno general, cinco anatómicos sobre otras tantas partes del esqueleto del 'Ardipithecus ramidus', dos más de análisis sobre dónde encaja en el puzle evolutivo y tres sobre su hábitat. Hace 4 millones y medio de años la región del curso medio del río Awash era húmeda, fresca y con áreas boscosas.

El mercado de publicidad online supera a la televisión

La publicidad online parece ser inmune a la recesión, según el último informe de Internet Advertising Bureau (IAB). Las nuevas cifras recogidas por esta organización, por PricewaterhouseCoopers (PwC) y por la World Advertising Research Centre afirman que el gasto en publicidad online ha crecido un 4,6% en la primera mitad de este año, y que por primera vez ha superado al gasto de publicidad en televisión.

El gasto ha superado los 1.900 millones de euros y ahora representa el 23,5% del mercado de publicidad global. Se trata, según los expertos, de cifras récord para una industria que se ha contraído un 17% en el periodo estudiado.

La publicidad en Internet ha superado las expectativas de crecimiento y ha funcionado mejor frente a la televisión, la radio o los medios impresos, y eso a pesar de que la industria de la publicidad ha perdido más de 1.600 millones de euros.

El pago por búsqueda es la publicidad preferida, contabilizando el 60% de todo el gasto de publicidad online. La publicidad relacionada con tecnología contabilizan el 19% del mercado, las telecomunicaciones el segundo con un 14% y las finanzas el tercero con un 13%. Según puede desprenderse del estudio, la desaceleración de la economía ha acelerado la migración hacia la publicidad digital.

Como las cifras dictan el Internet esta cambiando la manera del marketing y la televicion se vuelve cada vez mas obsoleta.
Es hora de contratar publicidad para generar o atraer mas visitantes ya no hay duda que el marketing en Internet es muy eficaz espesare contratando anuncio de google muy recomendado por la red

Galardón para Land Rover: El Range Sport el 4x4 más bello

El nuevo Range Rover Sport 2010 ha sido el vencedor indiscutible de la encuesta organizada por Auto Motor und Sport, una de las publicaciones del motor de mayor tirada en Europa, que elige el mejor diseño entre los modelos recién incorporados al mercado. Los lectores de la prestigiosa revista alemana han elegido al Range Rover Sport como modelo más atractivo en la categoría 4x4 de los galardones Autonis, por delante de sus rivales alemanes.

Más de diez mil lectores participaron en esta encuesta que evaluó 89 vehículos pertenecientes a ocho categorías diferentes. En la categoría todoterreno, los lectores eligieron entre trece vehículos. El Range Rover Sport 2010 se hizo con el primer puesto, con un 20,4% de los votos, seguido por el Audi Q7, con un 17,4% y el Mercedes ML que, con un 10,4%, ocupó la tercera posición.

La ceremonia de entrega de los galardones, que tuvo lugar en el recién concluido Salón del Automóvil de Francfort (IAA), contó con el respaldo de los principales diseñadores de la industria del motor. Gerry McGovern, Director de Diseño de Land Rover, declaró: “El nuevo Range Rover Sport tiene una presencia más musculosa y limpia, con un audaz frontal que potencia el carácter atlético del vehículo. Haber sido elegido por los lectores de la reconocida publicación alemana, a pesar de la dura competencia que representan las marcas nacionales, es un logro extraordinario”.

El interior del Range Rover Sport 2010 se ha rediseñado exhaustivamente para mejorar sus niveles de calidad y artesanía que son ahora más que merecedores de la marca Range Rover.

El habitáculo conserva su tan apreciado aspecto de confortable cabina deportiva, si bien ahora se caracteriza por la presencia de materiales de mayor calidad, suntuosos acabados y una exquisita atención al detalle.

El nuevo Range Rover Sport, equipado con el nuevo motor V6 3.0 diesel biturbo de 245 CV o con motor de gasolina V8 5.0 sobrealimentado de 510 CV, ya está a la venta en la Red Oficial de Concesionarios Land Rover.

Un gran Auto Ya me imagino manejando uno de esos jajaja bueno no cuenta nada soñar con un carraso como estes

Sony lanzará una cámara capaz de grabar en 3D con una lente única

La firma japonesa Sony lanzará en breve una nueva cámara cinematográfica capaz de captar imágenes tridimensionales con una lente única, lo que significa una revolución en el sector.

Este desarrollo supone un gran avance respecto a la grabación de imágenes 3D, ya que antes se necesitaban dos cámaras perfectamente alineadas para lograr este objetivo, informa PC World.

Para los cineastas, el principal problema de rodar con dos cámaras es que han de estar alineadas de una forma muy cuidadosa para que ambas capten exactamente las mismas imágenes.

Sony presentará su nueva cámara en el congreso CEATEC, que tendrá lugar en Japón entre el 6 y el 10 de octubre.

Sony presentará su nueva cámara en el congreso CEATEC, que tendrá lugar en Japón entre el 6 y el 10 de octubre.


Con esta nueva tecnología podremos ser unos expertos en video sin nesesidar de terner mucha experiencia bueno esperemos nomas cuando saldrá a la venta 

DFI prepara una placa base híbrida con dos sistemas en uno.



Sin duda resulta curioso ver esta placa base que es capaz de albergar dos sistemas tan diferentes en el tamaño de una placa base ATX convencional pero personalmente no le veo mucho sentido a este tipo de soluciones “extrañas” que ofrecen más complicaciones que beneficios.

Esta placa base, que se llamará P45-ION-T2A2, integra por un lado una solución ION de Nvidia con procesador Atom 230, sus propios zócalos de memoria, su tarjeta grafica 9400m dedicada y por otro lado, una solución con chipset P45 también con sus propios módulos de memoria, etc. La pega es que para mi resulta un poco lioso ya que tenemos una tarjeta colgando con diferentes botones de encendido, un panel posterior con conectores mezclados entre los dos sistemas, etc. 

Y todo para que luego esto tenga poco sentido práctico, ya que necesitamos hasta un KVM o monitores, teclados y ratones, y un precio que seguro que no será precisamente económico. Sin duda llamativo pero para mí exento de cualquier utilidad real.

Nuevas placas en formato Mini-ITX en Sistemas Ibertrónica



Sistemas Ibertrónica distribuye ya en España los modelos de placa en formato Mini-ITX que componen la gama M700 de VIA. Todos ellos toman como base el nuevo chipset VIA VX1800 que aúna en un mismo soporte las características esenciales para garantizar una reproducción de archivos multimedia sin precedentes así como una visualización muy nítida de las aplicaciones digitales. 
Su excelente resolución viene dada por las configuraciones DVI, DVI Dual y HDMI. Además, presenta dos puertos Gigabit LAN para tarjetas PCI-Express para facilitar una mejor y más rápida transferencia de datos de vídeo y otros ficheros a través de la red.

La gama M700 presenta dos modelos: VIA EPIA-M700-10E VIA EPIA-M700-15
La primera es una versión de la placa sin ventilador, totalmente silencioso y más fiable (VIA EPIA-M700-10E). La segunda, por su parte, sí cuenta con ventilador (VIA EPIA-M700-15). Ambas cuentan con los procesadores VIA Chrome9™ HC3, VIA Vinyl HD Audio y VIA Chromotion™ para sacar el máximo partido de los gráficos, archivos de audio y vídeo respectivamente. El motor VIA Chromotion™ acelera el rendimiento del hardware de vídeo y mejora la experiencia visual para los formatos MPEG-2, MPEG-4, WMV9, VC1 y DivX. Además, integra, a su vez, un procesador de vídeo VRM para la reproducción en HD.

Estas nuevas placas en formato Mini-ITX soportan hasta 2GB del último sistema de memoria DDR2. Para las labores de almacenamiento, cuentan con dos puertos SATA II, uno IDE y hasta seis USB 2.0. Todos los datos con los que trabajemos contarán con una eficaz protección provista por el motor VIA PadLock Security integrado.

Un celular a prueba de todo

LG Electronics Argentina presenta un nuevo integrante de su división LG Mobile: el LG Secret, un equipo con estilo único y diseño para siempre, ideal para aquellas personas que desean terminales delgados con funciones digitales que conserven un buen diseño.

Al estar fabricado y desarrollado con fibra de carbono -un material no tradicional, utilizado en la industria aeroespacial y automotriz– posee mayor resistencia y durabilidad. Además, cuenta con una pantalla de LCD cubierta con un escudo de vidrio templado a prueba de golpes.

“Inspirado en el suave tacto del agua sobre la piel, la navegación táctil de neón permite sentir las delicadas luces y la sutil vibración. LG Secret es la nueva apuesta al éxito de los móviles de estilo sofisticado, con un diseño que atrae miradas y belleza a prueba del tiempo”, comentó Marcela Rossi, Brand Manager de LG Argentina.

Con cámara fotográfica de 5.0 MP que graba y reproduce video a 120 fps así como archivos en formato DivX, el LG Secret incorpora numerosas posibilidades de edición para imagen y video, como la función Morphing -que sirve para realizar retoques en los rostros- y la opción SmartLight- que corrige de forma automática la configuración de la luz-.

Como si fuera poco, el LG Secret posee una interfaz dual de usuario, denominada Neon Touch Navigation, que permite manejar el teléfono por teclado y a través de la pantalla táctil, respondiendo a las pulsaciones con efectos luminosos en color azul y una suave vibración.

Las funciones de entretenimiento del LG Secret incluyen el sistema Touch Media, que permite acceder directamente a cinco funciones multimedia: música, fotografías, juegos, documentos y radio FM, pulsando un sólo botón, y logrando que el usuario pueda visualizar fotos al mismo tiempo que escucha música. Además, el LG Secret KF755 ofrece la posibilidad de trabajar fácilmente con archivos Word, Excel y PowerPoint.

“Con este nuevo modelo renovamos el compromiso de innovación permanente que LG siempre brinda a sus consumidores. El LG Secret posee numerosas características que multiplicarán las posibilidades de interacción de los usuarios con su teléfono móvil”, señaló Marcelo Palazzo, Director Comercial de LG Mobile Argentina.

CEO de Microsoft, Steve Ballmer explica que reducira costes al canbiar a Windows 7

Esto les convedria nada mas que a las grande corporaciones tanbien es de entender que ellas nomas adquieren licencia original por esta razon.
Aún así, el CEO de Microsoft intentó convencer a los asistentes para que averiguasen si lospresupuestos de las empresas dedicados a las TI estaban siendo congelados, reducidos o ampliados. La mayoría afirmó que estaban a la baja o, en el mejor de los casos, congelados, una tendencia que según Ballmer, conoce bien y que hará más difícil que la gente se anime a comprar nuevo software. 
Aún así, considera que el actual clima que atraviesan las TI es el momento para apostar por una “nueva eficiencia”, por eso, las compañías deberían intentar hacer más con menos y deberían poder liberar los presupuestos de TI sólo para comprar productos que permitan a sus empleados colaborar de manera más eficiente, reduciendo gastos del negocio.

Por ello, en este contexto, intentó posicionar los tres nuevos productos, Windows 7 en particular, afirmando que ayudarán a los usuarios a conseguir mayor innovación y ahorro de costes en sus negocios. Para ilustrarlo, citó diferentes casos de clientes preparados con la consultora Gartner, con los que quiso mostrar cómo el nuevo sistema operativo podría ayudar a las empresas a ahorrar dinero en tres áreas fundamentalmente. Así, según este estudio, las firmas que apuesten por Windows 7 podrían conseguir ahorrar anualmente entre 36 y 45 dólares por PC en el área de servicio; entre 25 y 98 dólares por PC en la gestión de equipos y, por último; entre 28 y 61 por PC en despliegue de los mismos. 

Mas parece una estrategia de marketing para vender este Sistema operativo pero bueno solo que da testear Windows 7 

Microsoft Security Essentials, nuevo antivirus gratuito de Microsoft


Andando por internet me encontre con esta noticia de que Microsoft acaba de lanza un antivirus totalmente Gratutito aun no lo e provado y no puedo desir su eficacia pero lo que si afirma de que no sera un complejo programas de paquetes que optimiza el uso de los ordenadores o realiza copias de seguridad. "Si lo que busca es instalar un software y desentenderse de su mantenimiento.

Y una de sus características principales es que este antivirus protegerá en tiempo real y tendrá actualizaciones automáticas. Si deseas testearlo y dar tus comentarios al respecto lo puedes bajar desde este enlace

Con respecto al anterior antivirus que salio a luz one care no tuvo muy buenos resultados que tal sera este esperemos que sea mejor de que los que utilizamos ya que es gratuito

EE.UU. compartirá el control de internet



El gobierno de Estados Unidos ha relajado su control sobre la gestión de internet.
Washington ha firmado una "declaración de compromisos" por la que, por primera vez, da autonomía al ente regulador de internet, la Corporación de Asignación de Nombres y Números en Internet (ICANN, por sus siglas en inglés).
Hasta ahora la ICANN operaba mediante un acuerdo que otorgaba la capacidad de supervisión de sus actividades al Departamento de Comercio de EE.UU., lo que había provocado críticas de otros países.
El nuevo convenio hará que la ICANN pase a estar controlada por grupos independientes, incluyendo representantes de gobiernos de todo el mundo.
El acuerdo entra en vigor el primero de octubre, cuando se cumplen 40 años desde que dos computadoras fueron interconectadas con el primer prototipo de internet.
"Es un día histórico", le dijo a la BBC Rod Beckstrom, director ejecutivo de la ICANN.
La Comisión Europea (CE), que había criticado en el pasado los lazos entre la ICANN y el gobierno de EE.UU., ha recibido favorablemente la noticia.
"Los usuarios de internet pueden esperar que las decisiones de la ICANN sean ahora mucho más independientes y responsables, y que tengan en cuenta los intereses de todo el mundo", señaló la comisionada europea de la Sociedad de la Información, Viviane Reding.

Grupos independientes

Rod Beckstrom
Rod Beckstrom dijo que se trata de "un día histórico".
La ICANN es una corporación privada sin fines de lucro establecida por el gobierno de EE.UU. en el estado de California.
Entre sus tareas se encuentra la configuración la estructura de la red y de sus dominios -las letras finales de las direcciones como ".com" o ".co.uk"- y la asignación de las direcciones del protocolo IP, el número que identifica a los ordenadores en internet.
Desde su creación en 1998, ha firmado diversos acuerdos con la Administración Nacional de Telecomunicaciones e Información de EE.UU., por los que el gobierno de Washington era el responsable de supervisar el trabajo del organismo.
Los grupos independientes serán nombrados por el Comité Asesor Gubernamental (GAC) de la ICANN, y revisarán el trabajo del organismo en tres áreas: seguridad, competencia y responsabilidad.
EE.UU. mantendrá un puesto permanente en el comité de responsabilidad.

"Sistema global"

Google y sus usuarios dependen de una internet vibrante y en expansión. Apoyamos esta decisión y aplaudimos la maduración del papel de la ICANN en la provisión de estabilidad a internet
Eric Schmidt, presidente ejecutivo de Google
Según explicó Rod Beckstrom, la decisión de acabar con la supervisión de EE.UU. en las otras áreas se adoptó "en el último año y medio".
"Nuestros accionistas nos recomendaron que no renováramos el acuerdo unilateral", señaló Beckstrom y agregó:
"De esta manera el gobierno de EE.UU. también reconoce que internet es un sistema global".
Lawrence Strickling, subsecretario de Comunicaciones e Información de EE.UU., aseguró que ahora "se reforzará la viabilidad en el largo plazo de internet como una fuerza de innovación, crecimiento económico y libertad de expresión".
Las compañías privadas también han dado la bienvenida al anuncio.
"Google y sus usuarios dependen de una internet vibrante y en expansión. Apoyamos esta decisión y aplaudimos la maduración del papel de la ICANN en la provisión de estabilidad a internet", dijo Eric Schmidt, presidente ejecutivo de Google.
El cualquier caso, el nuevo acuerdo no acabará del todo con la relación privilegiada entre EE.UU. y la ICANN, ya que esta última tiene un acuerdo con Washington que finaliza en 2011 para dirigir la Agencia de Asignación de Números de Internet (IANA, por sus siglas en inglés).

¿Adiós email, hola 'Wave' de Google?

Cien mil personas pueden usar a partir de hoy Wave, la nueva aplicación que había sido presentada por la compañía el pasado 27 de mayo en la conferencia Google I/O.

Wave es una herramienta que integra email, mensajería instantánea, wiki y red social, con audio y vídeo. La idea es que se convierta en la nueva forma de acceder a las actividades más comunes en línea desde un mismo sitio. El servicio está claramente enfocado hacia la comunicación personal y el trabajo colaborativo, es a partes iguales "conversación y documento", describe el blog oficial.

Básicamente, la aplicación permite crear 'ondas' (waves) que contienen hilos completos de conversaciones en línea, correos electrónicos y mensajes multimedia llamados 'blips'. Las 'waves' son almacenadas en un servidor central por el tiempo que determinen sus participantes. Una persona puede iniciar una 'wave' para discutir un tema de la empresa, por ejemplo. Sus colegas pueden comentar al respecto, revisar documentos de texto o gráficos incorporados en la 'wave', editarlos (a la manera de wikis) y vincular parte de los contenidos con otras plataformas, como por ejemplo un blog en Blogger o un álbum de fotografías en Picasa. El grupo de participantes en la 'wave' puede ver en cualquier momento quién hace qué dentro de la misma, mediante la función 'playback', y si todos/as están en línea simultáneamente pueden comunicarse al instante sin tener que enviar emails y esperar respuestas.

La aplicación permite configurar ciertas atribuciones para restringir acceso o dar ciertas propiedades a los contenidos de cada 'wave'. Tiene traducción automática y revisión ortográfica incorporadas.

Éste es un paso importante de Google en su objetivo de reemplazar el protocolo de email por el de Wave. La mayor parte del código de la aplicación está abierto a la creación de extensiones por parte del público (como sucede con Firefox, por ejemplo). En principio, Google será el único proveedor del servicio Wave pero se planea que muy pronto terceras partes empiecen a diseñar sus propias aplicaciones usando el protocolo Wave, que cuando esté suficientemente probado y estable, podrá ser usado ampliamente tanto personal como comercialmente, tal y como sucede hoy con los servicios de cuentas web de correo electrónico.

El nombre Wave viene de un aparato de comunicación en una serie de televisión futurista con elementos de 'western' estadounidense, 'Firefly', pasada en 2002 y 2003 y que no tuvo al aire el éxito esperado, aunque sí posteriormente al ser lanzada en DVD, inspirando viñetas, videojuegos y una película, 'Serenity'. Cuando Wave falla, el mensaje de error y cierre es una cita de la serie: "¡Maldita sea tu súbita pero inevitable traición!". Los creadores son Jens y Lars Rasmussen (coautores de Google Maps), de la sede de Google en Australia.

Para quienes deseen acceder a la nueva creación de Google, es posible solicitar una invitación, aunque habrá que tener paciencia por la cantidad de solicitudes. La compañía tiene un sitio de interacción con el público: Hasta ayer habían recibido 4675 votos, 246 ideas y registros de 529 personas.

Quienes usan regularmente Facebook o Twitter estarán bastante familiarizados con la actualización instantánea de mensajes y perfiles en red. Wave va claramente en la línea de la comunicación web que integra servicios en un sólo sitio con recursos útiles tanto para el uso individual como comunitario. Además, el email está siendo reemplazado por la mensajería instantánea virtual y vía dispositivos móviles, especialmente entre las generaciones más jóvenes.

¿Significa esto que la nueva 'onda' de Google conseguirá marcar un antes y después en la comunicación electrónica? Hay que esperar qué tal continúa el periodo de preestreno, aunque está claro que los hermanos Rasmussen trabajan duro para que su Wave tenga mucha más popularidad que la serie de televisión que inspiró el nombre,

Refrigeración Del Procesadore Nehalem

Los nuevos procesadores Nehalem de seis núcleos fabricados en procesos de 32 nanómetros, de nombre en clave “Gulftown” que Intel comercializará en 2010, contarán con un sistema de refrigeración rediseñado, con nuevo disipador y un ventilador más grande que el actual para socket LGA-1366. Además estará colocado en posición vertical.

La colocación del ventilador no es nueva en la industria y ya es empleada en algunas soluciones de compañías especializadas como Thermalright, aunque sí es novedosa en cuanto al sistema estándar utilizado por Intel y AMD para entregar con sus últimos procesadores.

Aunque no se conocen sus especificaciones, de las imágenes se deduce que el ventilador ha aumentado su tamaño (120 milímetros) respecto a los empleados en los actuales Core i7 para zócalo LGA-1366.

Además, su colocación “en vertical” permitirá dirigir el aire caliente hacia la parte trasera de la torre, mejorando su eficacia y funcionamiento.

¿Puedo instalar Windows 7 en mi PC?


El día 22 de octubre, Microsoft empezará a venderWindows 7, su nuevo sistema operativo que sustituirá al poco afortunado Windows Vista. Cuando se lanzó Vista, uno de los problemas que mas quebraderos de cabeza causaron y que fue parte de los motivos de su poco éxito fue la falta de compatibilidad de hardware y software que en Windows XP funcionaba correctamente, de modo que ahora es natural una cierta reticencia de los usuarios hacia Windows 7. ¿Ocurrirá lo mismo? ¿Podré instalar Windows 7 en mi ordenador sin problemas? Si te haces esas preguntas vamos a intentar ayudarte a encontrarles respuesta.

Windows 7 está construido sobre la base de Windows Vista, por lo que tiene con este bastantes similitudes en su funcionamiento. Sin embargo, el paso del tiempo en el que Vista intentaba abrirse camino en el mercado, juega a favor de Windows 7. Por una parte, los ordenadores han aumentado su potencia, y por otra las viejas aplicaciones y periféricos habrán ido desapareciendo para dejar paso a otros modelos más compatibles con los nuevos sistemas.

Requisitos mínimos de Windows 7

Uno de los problemas de Windows Vista es que era un devorador de recursos poco adaptado a los ordenadores del momento. Para poder ejecutarlo con soltura hacía falta tener las máquinas más potentes del mercado. Esto se puso aún más de manifiesto con la llegada de los netbooks, ordenadores que, por definición, tienen los recursos justos e imprescindibles y para los que Microsoft tuvo que rescatar Windows XP después de haberlo condenado a su desaparición. Windows Vista era incapaz de funcionar en un netbook.
Hardware mínimoWindows 7 32 bitsWindows 7 64 bits
Procesador1 GHz
Memoria RAM1 GB2 GB
Espacio en disco duro16 GB20 GB
Tarjeta gráficaDirectX 9 con controlador WDDM 1.0
Microsoft ha aprendido de sus errores y uno de sus objetivos al diseñar Windows 7 ha sido tratar de aligerarlo para permitir que se pueda ejecutar en todo tipo de ordenadores, y no sólo en los últimos modelos del mercado. Por ello habrá una versión específica de Windows 7 para netbooks:Windows 7 Starter, que ha sido aligerada y



mínimos de hardware para ejecutar Windows 7
 son los indicados en la tabla. Además, algunas funciones pueden necesitar características adicionales, como acceso a Internet, hardware gráfico avanzado o más memoria o espacio en disco, entre otras cosas.
Si te fijas, en realidad Windows 7 pide la misma velocidad de procesador, la misma cantidad de memoria, la misma tarjeta gráfica y ocupa aproximadamente lo mismo que Windows Vista en el disco duro. Entonces ¿donde está la mejora? Realmente la mejora es que estas cifras hayan permanecido iguales casi tres años después, pues lo normal es que cada versión de Windows exija más y más hardware cada vez. Como decíamos antes, el tiempo ha jugado a su favor, y mientras que en enero de 2007 eran normales los ordenadores con, por ejemplo, 512 MB de RAM, ahora lo habitual es que tengan un mínimo de 2 GB. Al detener la carrera ascendente del hardware, será más fácil que Windows 7 se pueda instalar en un mayor número de ordenadores actuales.


Compatibilidad de Windows 7

Pero tener la certeza de que nuestro ordenador cumple los requisitos mínimos de hardware no garantiza la ausencia de problemas. La compatibilidad es fundamental y en este terreno podemos encontrar problemas tanto con el hardware como con el software. Si el ordenador, sus periféricos, y su software son de la "era Vista" lo normal sería que todo pueda funcionar sin problemas. De hecho, si el ordenador ya tiene instalado Windows Vista, con el último Service Pack, podrá actualizarse directamente y, si es reciente, es posible que tengas derecho a una actualización a Windows 7 gratis. Sin embargo ordenadores o componentes anteriores a 2007 pueden darnos problemas.
En el peor de los casos, si el ordenador tiene Windows XP, Microsoft no recomienda instalar una actualización sinoinstalar Windows 7 desde cero, aunque técnicamente es posible hacerlo. En realidad la instalación de un nuevo sistema operativo, sea la versión que sea, es la excusa perfecta para refrescar el ordenador y hacer una instalación limpia desde cero, que nos permitirá desechar todos esos restos que en ocasiones van quedando de programas y controladores mal desinstalados.
La mejor manera de adelantarnos a posibles incompatibilidades es utilizar la herramienta Windows 7 Upgrade Advisor de Microsoft, que comprobará todo el sistema y nos ofrecerá in informe detallado. No obstante esta herramienta sólo está disponible en inglés y aún se encuentra en fase beta, aunque suponemos que saldrá de ella el mismo día 22 de octubre, con el lanzamiento de Windows 7.

Antes de ejecutar Windows 7 Upgrade Advisor asegurate de que tienes instalado todo el software que vayas a necesitar usar con Windows 7, y que estén conectados, encendidos y funcionando correctamente todos los periféricos. Esta aplicación revisará todo tu sistema para comprobar cada uno de sus elementos e indicarte si es o no compatible.

Descarga y ejecuta la aplicación, y dale un tiempo para que reuna los datos. Al finalizar te mostrará un informe, que puedes grabar para volver a consultarlo con Internet Explorer cuando quieras. En este informe te indicará si tu ordenador cumple los requisitos mínimos, si necesitas actualizar algún componente, y si alguna aplicación tiene problemas conocidos que obligue a actualizarla o que, directamente, impida su funcionamiento en Windows 7.

Con este informe podrás decidir si puedes instalar Windows 7 o si al hacerlo vas a perder alguna aplicación que te resulte imprescindible.

¿Qué versión de Windows 7 elegir?

Si ya has decidido instalar Windows 7, necesitas elegir una de las seis versiones disponibles: Starter, Home Basic, Home Premium, Professional, Enterprise o Ultimate.
Windows 7 Starter es la versión aligerada diseñada para trabajar con ordenadores poco potentes, de modo que sólo es aconsejable su uso en ese caso, pues carece de muchas funciones, además sólo se distribuirá a fabricantes de equipos.Windows 7 Home Basic es una versión algo más avanzada pero destinada sólo a mercados emergentes, mientras queWindows 7 Enterprise está destinada a las empresas que hacen compras de licencias por volumen.
Ediciones de Windows 7Entre las otras tres opciones, los nombres parecen destinar sólo una de ellas al mercado doméstico y de consumo, sin embargo, tanto Windows 7 Professionalcomo Windows 7 Ultimate ofrecen características adicionales que pueden resultar de interés no sólo para las empresas, sino también para el consumidor.
Probablemente las dos opciones más interesantes, y de las que carece Windows 7 Home Premium, son el modo de compatibilidad de Windows XP y las copias de seguridad automáticas. El primero permite ejecutar software de Windows XP, que pueda dar problemas en Windows 7. Para hacerlo necesita que se tenga instalado Microsoft Virtual PC pues lo que hace es una virtualización de Windows XP. Además, necesita 1 GB más de memoria RAM, 15 GB más de disco duro y un procesador con tecnologías de virtualización Intel VT o AMD-V. Es un sistema orientado a las empresas, pero sin duda habrá muchos consumidores que no quieran prescindir de algún viejo programa y a los que les vendría muy bien.
En cuanto a las copias de seguridad, no hace falta explicar su importancia de cara a proteger los datos. La propia Microsoft indica en su página la idoneidad de esta función para "la red doméstica y empresarial", pero sin embargo la versión Home Premium carece de ella.
La tercera función de la que carece Home Premium es la posibilidad de unirse a un domínio que, en este caso sí, no es habitual que se necesite en una casa.
Además, Windows 7 Ultimate tiene otras dos funciones exclusivas que sólo encontraremos en esta edición: la posibilidad de cambiar el idioma del escritorio entre 35 opciones, y la aplicación BitLocker para cifrar la información de discos tanto internos como externos, incluida la propia unidad de Windows.

Cierran una cuenta de Gmail que recibió por error datos confidenciales


insólito. El banco estadounidense Rocky Mountain logró que Google se vea obligada a cerrar la cuenta de un usuario de Gmail que recibió por error un correo con datos confidenciales de los clientes de la entidad bancaria.

El problema ocurrió en agosto último, cuando un trabajador de la mentada entidad bancaria envió por equivocación un e-mail con detalles de 1.300 de sus clientes a una cuenta de correo, informa Telegraph.

El correo electrónico contenía información de nombres y direcciones de los clientes. Por ello, el banco envió un nuevo correo a la misma cuenta, en la que se exigía la eliminación del mensaje original. Sin embargo, no obtuvo respuesta.

Ante esta situación, el banco Rocky Mountain solicitó a Google que revele la identidad del usuario que recibió el correo electrónico. La empresa respondió que por política de privacidad no puede dar los datos del usuario a no ser que haya de por medio una orden judicial. El gigante informático recibió el requerimiento del juzgado la semana pasada.

"Es indignante que el banco solicite esto, y es inaudito que el tribunal se lo haya concedido" dijo John Morris, del Centro para la Democracia y la Tecnología, al portal MediaPost. "¿Qué derecho tiene el banco de suspender la cuenta de correo electrónico de una persona completamente inocente?", agregó.

Por su lado, Eric Goldman, director del Instituto de Leyes de Alta Tecnología de la Universidad Santa Clara, opina que la orden del juzgado puede tener significantes consecuencias. "Perder una cuenta de correo es algo serio. Es desconcertante pensar que un juez puede ordenar el cierre de una cuenta de correo", apuntó.

De momento, Google ha accedido a desactivar la cuenta, pero ha solicitado permiso a los tribunales para restaurar posteriormente el acceso del usuario.

AMD lanza ATI Radeon HD Serie 5800

AMD lanzó el procesador gráfico más potente jamás creado sobre la base de su tarjeta gráfica ATI Radeon™ HD Serie 5800 de próxima generación, la primera en el mundo que soporta en forma completa Microsoft DirectX® 112, el nuevo estándar en juegos y computo que saldrá pronto al mercado junto con el sistema operativo Microsoft Windows® 7.

Jactándose de hasta 2.72 TeraFLOPS de poder de cómputo, la ATI Radeon™ HD Serie 5800 efectivamente duplica el valor que los consumidores esperan de sus compras de placas gráficas, entregando el doble de performance por dólar invertido con respecto a productos gráficos de generaciones anteriores.

AMD lanzará inicialmente dos tarjetas: la ATI Radeon HD 5870 y la ATI Radeon HD 5850, cada una con 1GB de memoria GDDR5. Con las tarjetas gráficas de ATI Radeon™ HS Serie 5800, los usuarios de PC pueden expandir su experiencia de computo con ATI Eyefinity – Tecnología de Multipantallas, acelerarla con tecnología ATI Stream, y dominar los las competencias con una performance en juegos inigualable y soporte completo de Microsoft DirectX® 11, haciendo de la placa una compra obligada para los usuarios que vayan a operar con el sistema operativo Microsoft Windows® 7.

Domine la competencia con el soporte total a Microsoft DirectX®
Con las tarjetas gráficas de ATI Radeon™ HD Serie 5800, los jugadores disfrutarán de una experiencia de juego superior y de una performance increíble en alta definición, junto con una experiencia incomparable con DirectX® 11:4.

Diseñada y fabricada con un objetivo: Modelada sobre la base de las especificaciones de DirectX 11, la gama de tarjetas gráficas ATI Radeon HD Serie 5800 entrega hasta 2.72 TeraFLOPS de poder de cómputo en una sola tarjeta, llevando a una performance superior a los últimos juegos con DirectX 11, así como también en DirectX 9, DirectX 10, DirectX 10.1 y títulos OpenGL en configuraciones de una sola tarjeta o múltiples tarjetas usando tecnología ATI CrossFireX™.

Cuando se la mide en términos de performance experimentada en algunos de los juegos más populares, las tarjetas de ATI Radeon HD Serie 5800 son hasta dos veces más rápida que el producto competidor más parecido en su clase,5 permitiendo a los jugadores disfrutar de increíbles juegos que soportan DirectX 11– incluyendo el de próximo lanzamiento DiRT™2 de Codemasters, Aliens vs. Predator™ de Rebellion, la versión actualizada de The Lord of the Rings Online™ y Dungeons and Dragons Online® Eberron Unlimited™ de Turbine – todos con gran detalle y gran cantidad de cuadros por Segundo.;

Varias generaciones adelante de la competencia: Construida sobre el éxito de los productos ATI Radeon™ HD Serie 4000, las tarjetas gráficas de ATI Radeon HD Serie 5800 están dos generaciones más delante de las que soportan DirectX 10.0, y son la 6ta generación de evolución de la tecnología de AMD en “tessalation” (imagen mucho más realista), la evolución de 3era generación de soporte a GDDR5, la 2da generación de la tecnología de procesamiento de 40nm, y ofrecen una rica experiencia gráfica, todo orientado a entregar la mejor experiencia de juego que el dinero pueda comprar.

Lo último en compatibilidad con juegos: El DirectX 11 API fue desarrollado sobre hardware de gráficos de AMD y representa la piedra angular del juego en DirectX 11. Todos los juegos iniciales de DirectX 11 fueron desarrollados o siguen siendo desarrollados sobre hardware AMD DirectX 11. Con más de 20 juegos DirectX 11 actualmente en desarrollo, esta optimización innata de las tarjetas gráficas ATI Radeon, en combinación con las actualizaciones mensuales de ATI Catalyst™, ayudan a asegurar una experiencia estable, confiable y de alta performance en los últimos juegos lanzados al mercado.

Acelere con la tecnología ATI Stream
Con las tarjetas gráficas de ATI Radeon HD Serie 5800, los usuarios de PC pueden relajarse con Windows 7 y darse cuenta del potencial de una mejor experiencia de cómputo para poder hacer más cosas con la PC: 6.

La super PC en casa: Una tarjeta gráfica ATI Radeon HD 5870 hubiese sido una de las 10 supercomputadoras del mundo hace sólo 6 años – hoy ese poder de procesamiento se puede encontrar en la PC del hogar o trabajo, junto con CPUs de alta performance, que entregan una experiencia superior;7.

Windows® 7: Windows 7 es el primer sistema operativo capaz, junto con las tarjetas gráficas ATI Radeon HD Serie 5800 y con tecnología ATI Stream, de procesar gráficos como nunca nada lo había hecho antes, siendo la primera y única tarjeta en soportar DirectCompute 11;8.

Crear y hacer más, más rápido que nunca antes, con tecnología ATI Stream: La tecnología ATI Stream6 brinda la posibilidad de disfrutar nuevas características de la PC, brinda más funcionalidad y performance mejorada, aplicaciones de entretenimiento y productividad sin precedentes.

Gran soporte a los estándares de la industria: Las tarjetas gráficas de ATI Radeon HD Serie 5800 soportan en forma completa tanto DirectX 11 como OpenCL, asegurando un amplio soporte de aplicación ahora y en el futuro.

Expanda la experiencia en la PC con la tecnología multipantalla ATI Eyefinity
Se puede disfrutar de muchos monitores en una tecnología sin cortes para adentrarse en los mejores ambientes de juego jamás vistos.

Lo último en flexibilidad sin cortes: Se pueden unir una o más pantallas usando las tarjetas gráficas ATI Radeon™ HD 5870 y ATI Radeon™ HD 5850, y hasta 6 monitores usando el próximo lanzamiento ATI Radeon™ HD 5870 Eyefinity6, en una variedad de configuraciones, tanto en formato horizontal o vertical.

Velos antes que ellos te vean: Se puede descubrir el potencial de juego en múltiples monitores hasta en una resolución de 12x full HD, el ambiente de videojuegos más grande del mundo jamás mostrado. 10 Más experiencial visual al detalle y campos de batalla que los competidores pueden no tener.

El futuro de la memoria de las tarjetas gráficas

ATI lanza la GDDR3 mientras NVIDIA intenta que se apruebe la DDR-II.

Es evidente que pese a todas las técnicas de ahorro de ancho de banda, memoria embebida, buses de 256 bits y demás, los chips gráficos necesitan cada vez memorias más rápidas. Ya os contamos hace algún tiempo que ATI con su R300 y NVIDIA con su NV30 estaban deseando que el JEDEC (el organismo que se encarga de dar la aprobación a los diferentes estándares de memoria) aprobase el uso de la memoria DDR-II para aprovechar al máximo la potencia de sus últimas bestias.
Pero esta aprobación no llegaba y ATI ha decidido adelantar trabajo. Ha unido esfuerzos con Hynix, Elpida e Infineon y ha lanzado la memoria GDD3 (Graphic DDR-III). Este nuevo tipo de memoria alcanzaría sin problemas los 750 MHz y debutará en el mercado a mediados de 2003.
Hay que tener en cuenta que con esta memoria tendríamos un ancho de banda de entre 1 Gbit (chip de 256 Mbits a 500 MHz) y 1,5 Gbits (chips a 750 MHz) por segundo y por pin, casi dos veces más rápido que la DDR-II, que todavía no ha entrado en producción en masa. Los representantes de ATI han comentado que no pueden esperar los dos o tres años que tarda el JEDEC en aprobar un estándar, ya que esa memoria quedaría obsoleta para los chips gráficos en ese mismo momento. Están de acuerdo en que el JEDEC hace un buen trabajo con los estándares para memoria de PC, pero la memoria de sistema tiene un ciclo de vida de dos o tres años, mientras que la de las tarjetas gráficas queda anticuada en 9 meses.
La memoria GDDR-III no es una tecnología propietaria y todos los fabricantes de DRAM pueden producirlo, mientras que cualquier fabricante de chips gráficos puede usarlo, incluso NVIDIA, principal rival de ATI. La compañía californiana ha declarado que estos chips deberían ser asequibles si consiguen que suficientes fabricantes apuesten por ellos.
Está claro que la memoria DDR-II ha quedado obsoleta incluso antes de salir al mercado. Con compañías como ATI y NVIDIA ansiosas por obtener la memoria más rápida disponible, los fabricantes como Hynix o Infineon deben aprovechar su oportunidad para obtener mayores beneficios.
El chip de memoria GDDR-III es una evolución del de DDR-II: aunque los dos utilizan encapsulado CSP (chip scale packaging), el primero usa una configuración de 144 bolas y el segundo de sólo 84. Mientras tanto, el JEDEC trabaja en su propia especificación de memoria DDR-III para PC, cuyo objetivo sería alcanzar 1 Gbit/s de ancho de banda, pero mucho más tarde que la GDDR-III.

FoodScanner




Que el iPhone tiene una infinidad de herramienta ya se sabe, así como que también puede emplearse para tareas disímiles, entre las que se incluyen, por ejemplo, hacer un seguimiento de nuestra rutina de ejercicios o de nuestra dieta.
Pues bien, en este último punto, ha salido hace poco una nueva aplicación, llamada FoodScanner, que se presenta como innovadora y más sencilla si lo que se quiere es llevar uncontrol de los que se come.
Sólo hay que pasar el código de barras que viene en el alimento, para que esta información se envíe a la gran base de datos de alimentos alojada en su sitio web principal, DailyBurn, tras lo cual con sólo incorporar lasporciones consumidas, el iPhone mostrará en pantalla la información no sólo en calorías sino también en nutrientes.
Aunque a primera vista pueda sonar interesante, vale destacar que no todos los alimentos que consumimos traen códigos de barra, por caso, las frutas y verdurasque se compran sueltas, no lo tienen. De cualquier modo, no deja de ser otra opción más que quizá pueda interesar a quién es realmente un “geek” o quién esté en la tarea de saber qué es lo que entra, cada día, por su boca.
El costo de FoodScanner será de 3 dólares, y el uso del servicio en línea de DailyBurn es totalmente gratuito. Para más información sobre ésta herramienta, no dudes en chequear su página en internet (en ingles).

Samsung Primero en fabricar Memorias DDR3 de 2GB con Tecnologia 40nm

Samsung anuncio este martes que se ha convertido en la primera compañia fabricante de semiconductores en producir de manera masiva chips de memoria RAM DDR3 de 2 gigabit (256MB) utilizando tecnologia de fabricacion de 40 nanometros.

El nuevo chip de memoria elaborado con la tecnologia de 40 nanometros, mas pequeña y de mayor densidad, le permite a Samsung producir memorias significativamente mas densas que las actuales sin incrementar el consumo de energia o el costo.
Le permitira fabricar memorias RAM RDIMM de 4GB, 8GB y 16GB para servidores, y SODIMM de hasta 4GB para notebooks, pero solo consumiria 1.35V, asi como tambien le posibilatara producir hasta un 60 por ciento mas memorias a cierto punto que con la tecnologia 50nm, lo cual eventualmente contribuiria a la reduccion de los precios.
Cada memoria RAM producida con tecnologia 40nm sera mas eficiente, con mayor densidad y de mayor rendimiento soportando transferencia de datos de hasta 1.6 gigabits por segundo a 1.35 voltios, hasta dos veces mas veloz que un chip tipico de 1 gigabit a 800Mbps.
De acuerdo a la firma de investigacion iSuppli, las memorias DDR3 de 2 Gb acapararan el 82 por ciento del total del mercado DDR3 DRAM en cantidad de unidades vendidas en 2012, y se convertiran en las memorias DDR3 DRAM principales para el 2010.
Samsung no ha brindado informacion sobre cuando las nuevas memorias DDR3 RAM seran lanzadas al mercado ni cuales seran los precios.

Google está de aniversario: Cumple 11 años de vida


Muchos se preguntarán por qué hoy el nombre de la más importante empresa por Internet, Google, se escribe distinto en su página de inicio. Sí, aparece con una letra adicional "L".
Y es que el imperio formado por Larry Page y Sergey Brin  (dos estudiantes de doctorado en Ciencias de la Computación de la Universidad de Stanford) en septiembre de 1998 cumple hoy, domingo, once años de creación.
Como se puede recordar, Google siempre utilizó su logo como una forma de conmemorar muchas fechas y acontecimientos históricos importantes para la civilización, tornándose cada vez más lúdico.
Por ejemplo, el 15 de septiembre pasado, Google mostró un platillo volador sobrevolando un campo.
El principal productor de Google es el buscador, pero la empresa ha desarrollado otros productos, entre los que figura un comparador de precios llamado Google Product Search, el servicio de correo electrónico llamado Gmail con un espacio de hasta 7 GB.
También es reconocido por su programa Google Earth, una especie de mapamundi con imágenes tridimensionales en alta resolución.
Finalmente, no podía faltar el servicio de mensajería instantánea Google Talk.

Las reflexiones de Mark Suttleworth sobre el Sistema Operativo GNU/Linux

En las últimas conferencias de la LinuxCon, Mark Suttleworth, propietario de Canonical, la empresa detrás de Ubuntu, estuvo analizando algunos de los problemas que tiene este sistema operativo, que pese a que gana adeptos días tras día, aún se mantiene como una opción extremadamente minoritaria.

Uno de los aspectos en los que más incidió fue en que la experiencia de usuario debería mejorar. Esto quiere decir que se debería hacer un mayor hincapié en probar los productos antes de lanzarlos, de manera que se asegurara la máxima usabilidad y aceptación por parte del usuario final.

Respecto a esto, cree que los test de usabilidad serían un buen paso adelante: “Si no logramos encontrar una forma de unir a esas dos comunidades de una forma potente, no creo que podamos lograr nuestro sueño. Si no podemos hacer que el software libre tenga un diseño genial no podremos llevarnos el primer premio“, añadía Shuttleworth.

Por último, habló de la falta de una buena coordinación a la hora de desarrollar nuevas versiones o distribuciones.

La variedad no es mala, pero un poco más de homogeneidad sería recomendable.

En mi opinión, los sistemas libres no acaban de despegar por múltiples razones, pero para mí, las más importantes son dos:

- Falta de información veraz

- Presión de empresas monopolísticas

Es lamentable que la gente crea que Windows es un elemento más del ordenador, como lo puede ser el teclado o el ratón. Muchos creen que es algo ligado a este e insustituible. Eso es un gran problema. Primero porque piensan que pagar una licencia de 100€ cuando compran un ordenador es obligatorio, y segundo porque aunque no lo paguen en principio, luego lo piratearán y lo usarán de igual manera, porque “no hay otra cosa”.

Por otro lado, está Microsoft, la empresa en sí. Como todos sabemos, y de eso hay referencias de sobra, esta empresa utiliza su poder y el juego sucio para hacerse con el mercado de manera ilícita. Campañas de desprestigio, imposición del sistema operativo en los ordenadores de la gran mayoría de las tiendas que los venden, alianzas con empresas de hardware para tener en exclusiva sus controladores…

Es muy complicado luchar contra esto. La única cosa que aún no pueden controlar es a las personas, o eso creo, y como tales, debemos hacer presión para que podamos elegir libremente lo que queremos usar. Si habiendo una libertad plena y total, alguien elige usar Windows, será su elección, y la respetaré mientras yo pueda elegir la mía. Eso sí, decidir ser esclavo de una empresa como esa no me parece ser libre, pero eso es otro tema.

Mark Shuttleworth dijo que "En ningún caso deberíamos abandonar el escritorio". Además el responsable de desarrollo de Ubuntu y creador de Canonical señalos algunas de las claves para poder hacer que dicha distribución tenga más éxito entre los usuarios fieles a Mac o Windows.

Al parecer esto no es lo que suelen hacer normalmente los desarrolladores de Open Source. El señor Shuttleworth volvió a animar a que le enviasen las herramientas para que fueran probadas por expertos de usuario y usabilidad.

Para ser más concreto dijo "Si el desarrollador está en la habitación, no puede decir nada. Es el protocolo del 'cierra la bocaza'. La idea es que te sientes y veas cómo alguien se comporta y se pelea con el software que has desarrollado con tanto amor".

Uno de los problemas es el desarrollo software y la interfaz de usuario, es por ello que el creador de Canonical cree que los test de usabilidad serían un paso de gigante diciendo "Si no logramos encontrar una forma de unir a esas dos comunidades de una forma potente, no creo que podamos lograr nuestro sueño. Si no podemos hacer que el software libre tenga un diseño genial no podremos llevarnos el primer premio".

Por último decir que el señor Mark Shuttleworth dijo "cada vez que creamos fricción y diferencias en nuestras distribuciones por ese tema, estamos haciendo la vida más difícil a los usuarios y también complicando las actualizaciones". 

Revolución tecnológica

El 19 de abril de 1965, en en el número que marcaba el 35.º aniversario de la revista Electronics , Gordon Moore, cofundador junto con Robert Noyce de Intel, la empresa que fabrica la mayoría de los procesadores de los ordenadores personales que se venden en la actualidad, publicaba un artículo titulado Encajando más componentes en circuitos integrados, que incluía un párrafo que venía a decir que el número de transistores que se podría meter en un circuito integrado -un chip- por el mismo precio se duplicaría cada año, lo que simplificando equivale a decir que los chips se volverían el doble de potentes cada año.

Esta afirmación, que el propio Moore modificaría en 1975 para decir que esta duplicación se produciría cada dos años, fue bautizada sobre 1970 por Carver Mead, profesor de Instituto Tecnológico de California y pionero también en el desarrollo de los circuitos integrados, como la Ley de Moore, y ha demostrado ser acertada, algo extremadamente inusual en el campo de la tecnología, y aún se sigue cumpliendo hoy en día, a pesar de que en numerosas ocasiones se anunció su muerte y de que cuando fue formulada el autor solo se atrevió a decir que se mantendría durante al menos diez años.

Con el paso del tiempo incluso ha llegado a decir que dado que la tecnología está a punto de alcanzar la barrera del tamaño de los átomos en cuanto a su capacidad de colocar más transistores en un chip, en unos 5 o 15 años, a partir de ahora se producirá una ralentización del proceso a menos que se adopten otras tecnologías. Pero pase lo que pase en el futuro, lo cierto es que desde los primeros chips, que contenían un solo transistor, hasta los microprocesadores actuales que contienen miles de millones de ellos la evolución de estos dispositivos ha cambiado radicalmente nuestro mundo.

?Revolución tecnológica

Para empezar, fue precisamente la aparición del microprocesador la que permitió la aparición a su vez de los ordenadores personales, que si bien desde que salieron al mercado no han bajado de un precio mínimo en muchos años hasta que han aparecido en los ultraportátiles de 300 o 400 euros, tampoco han parado de ofrecer más y más prestaciones por el mismo precio.?Pero los chips no solo están presentes en los ordenadores, sino en prácticamente cualquier ámbito de la vida, como televisores, microondas, equipos médicos, medios de transporte, teléfonos móviles, consolas de videojuegos y cámaras digitales, por citar solo algunos ejemplos, dándoles a todos estos dispositivos capacidades que hace pocos años nos habrían parecido de ciencia ficción.

De hecho, las características en cuanto a velocidad de proceso, capacidad de memoria, o incluso el número de píxeles en los sensores de las cámaras digitales de la mayoría de los dispositivos electrónicos digitales crecen a un ritmo muy similar al previsto por la Ley de Moore, e incluso hasta el móvil más barato con cámara es capaz hoy en día de guardar las fotos en formato jpg sobre la marcha, cuando no hace mucho más de diez años era necesario utilizar una tarjeta aceleradora especial para hacer eso en un ordenador personal sin que se eternizara en el proceso.

Así, en la mayoría de los casos, todos estos dispositivos, incluidos los ordenadores, hace tiempo que van absolutamente sobrados de potencia para la mayoría de los usos que les damos, con lo que como usuarios haríamos bien en fijarnos más en la facilidad de uso de estos que en la potencia pura, que igual que decía aquel anuncio de neumáticos, por si sola no sirve de nada.

Para compensar los efectos de la Ley de Moore tenemos el «software inflado», o el Gran Compensador de la Ley de Moore, como lo llamó Randall C. Kennedy, un antiguo empleado de Intel, que se encarga de ir haciendo que las ganancias en prestaciones de los ordenadores queden compensadas por las cada vez mayores exigencias del software al ir acumulando más funciones, no siempre especialmente útiles ni apreciadas por los usuarios.

Según Kennedy, a pesar del aumento de las prestaciones de los ordenadores entre el 2000 y el 2007, Microsoft Office 2007 hacía las mismas tareas a la mitad de la velocidad en un ordenador típico del 2007 que Office 2000 en un ordenador del 2000, aunque esto es aplicable a muchos otros programas y sistemas operativos.

 
Share