Cómo reemplazar un disco duro por una SSD en cuatro pasos

Si compras un PC nuevo tendrás poco donde elegir en el apartado del almacenamiento, porque prácticamente todos usarán unidades de estado sólido. Si tienes un equipo algo más antiguo debes saber que reemplazar un disco duro por una SSD es una de las actualizaciones más interesantes que puedes realizar para mejorarlo y extender su vida útil.

Son decenas los artículos que te hemos venido ofreciendo sobre esta tecnología de almacenamiento sólido que ha dejado obsoletos a los discos duros, incluyendo análisis de las mejores unidades del mercado y una Guía de compra reciente con todas las características que un usuario debe conocer y selección de ofertas. Hoy apostamos por un artículo más práctico donde te vamos a recordar los cuatro pasos para reemplazar de manera efectiva un disco duro por una SSD.

Para el tutorial. nos centraremos en un ordenador portátil, pero igual de sencillo sería hacerlo en una sobremesa y los beneficios de su instalación pensando en mejorar el rendimiento contundente, en cualquier caso, en tiempos de arranque del sistema operativo, en la apertura de aplicaciones, en la recuperación desde modos de suspensión o en el trasvase de archivos entre unidades internas o hacia soluciones externas.

1.- Elegir y comprar la SSD

Hasta hace un par de años las posibilidades (por oferta y precio) de comprar una SSD pasaban casi en exclusiva por el formato estándar de 2,5 pulgadas y la interfaz SATA. Hoy en día la oferta es mucho más amplia, las unidades conectadas a PCIe ocupan la mayoría de nuevos lanzamientos y son el formato recomendable siempre que tu equipo los soporte.

Si tu portátil tiene conectores M.2 – PCIe disponibles, no hay debate, éste es el factor de forma que debes comprar. La mejora en rendimiento, consumo y peso es notable y además, siempre podrías aprovechar la bahía de 2,5″ como unidad secundaria para aumentar el almacenamiento, sea con otras SSD SATA o incluso con los viejos discos duros que tengas arrinconados.

Si vas a montar una SSD de 2,5 pulgadas solo tendrás que valorar su grosor aunque no tendrás problema porque ya todos se ofrecen en tamaños de 9 o 7 mm. En cuanto a capacidad, dependerá de tus necesidades y presupuesto. Hay unidades baratísimas de 120 o 240 GB si quieres combinarla con otras unidades y buenos precios en 500 GB o 1 TB si las vas a montar como unidad única.

Todos los grandes fabricantes de SSD (WD, Kioxia, Samsung, Kingston…) te van a ofrecer una buena garantía y rendimiento. En cuanto a precios, las memorias flash NAND en las que están basadas han bajado de precio y ello se se ha trasladado al cliente final. Se pueden encontrar unidades muy económicas en cualquier tipo de formato y capacidad.

2.- Guardar los datos

Si la compra de la SSD viene motivada por el fallo de un disco duro no podremos hacer demasiado. Retirarlo de inmediato y en otro equipo utilizar herramientas especializadas del fabricante o de terceros para formateo a bajo nivel u otras. Si los fallos son parciales también lo quitaríamos para intentar salvar datos con aplicaciones de recuperación.

Si el disco duro está en uso y funciona bien, antes de cualquier acción de reemplazo tenemos que plantearnos la realización de copias de seguridad del disco. Ello dependerá de las necesidades de cada uno. Vemos varias posibilidades:

  • Lo más completo sería una clonación total del disco duro para conservar sistema operativo, aplicaciones, archivos y configuración de usuario. Muchos fabricantes de SSD ofrecen aplicaciones para ello y terceros desarrolladores ofrecen apps gratuitas. Necesitarás una unidad externa para hacerlo o directamente en la SSD con kits de conversión y/o cableado que pase los datos desde un USB a la interfaz de la SSD, generalmente SATA.
  • Si no necesitas una clonación puedes utilizar los discos de recuperación que te proporcionó el fabricante de tu portátil.
  • Si no tienes discos de recuperación del fabricante o quieres crear copias de seguridad personalizadas, todos los sistemas operativos actuales ofrecen herramientas para realizar copias de seguridad que por otro lado es una tarea muy conveniente que forma parte del mantenimiento del propio sistema. También hay buenas apps de terceros que se pueden utilizar.
  • Si vas a realizar una instalación limpia desde cero desde DVD/USB que tengas preparado con el sistema operativo, simplemente revisa el disco para guardar tus archivos personales (documentos, fotos…), que puedes archivar en cualquier medio o en el servicio de almacenamiento en nube que utilices.

Si lo necesitas, puedes revisar esta guía para mover Windows desde HDD a SSD manteniendo todos los datos.

3.- Montar el SSD

Una vez salvado los datos que necesitamos y teniendo a mano el disco de arranque o la copia de respaldo para instalar el sistema, vamos al montaje. Cada portátil es un mundo, pero revisando su parte trasera no tendremos demasiados problemas para localizar la situación del disco duro.

Hay modelos que tienen un hueco dedicado para la unidad de almacenamiento y otros en los que hay que desmontar toda la tapa. Retira cualquier tipo de periférico conectado al portátil, el cable de alimentación y la batería en su caso. Revisa la parte trasera y retira la tornillería para acceder a su interior.

No será nada complicado localizar el disco duro instalado, como puedes ver en este portátil MSI Leopard que usamos como ejemplo. Si has elegido una SSD SATA, retira la sujeción del disco duro y reemplaza con la SSD.

Si has decidido montar una M.2 (porque como en este caso también cuenta con un slot disponible), es aún más sencillo, pinchando la SSD en el conector y asegurándola con un solo tornillo.

Poco más queda por hacer que volver a montar la tapa del portátil, conectar la batería, cable de alimentación o periféricos que tuviéramos instalado.

4.- Configuración, instalación del sistema y datos

Si has utilizado una SSD a PCIe y vas a mantener también el disco duro (u otra SSD), asegúrate que la PCIe sea el primer dispositivo de arranque. Este apartado se configura en la BIOS/UEFI.

Si has realizado previamente una clonación solo tendrás que arrancar el equipo. Si no has hecho una clonación y has apostado por una copia de seguridad parcial, tendrás que instalar el sistema operativo y/o aplicaciones, restaurando la copia de seguridad o instalando desde cero. Se hace de la misma manera con cualquier versión de Windows o Linux.

Después del primer arranque se recomienda configurar adecuadamente la SSD para trabajar en el equipo porque tiene algunas peculiaridades sobre los discos duros. Algunas ya las hemos comentado en otros artículos, como desactivar las desfragmentaciones o asegurarse que tenemos activado el comando TRIM.

La mayoría de fabricantes de SSD ofrecen una aplicación para su configuración que es recomendable activar, porque permite configurar la unidad para un rendimiento óptimo, visualizar su estado, mantener actualizado el firmware o cifrar los datos del disco si lo necesitamos.

No lo dudes. Reemplazar un disco duro por una SSD te va a ofrecer enormes ventajas, las más directas en el apartado del almacenamiento. Este tipo de actualización se puede realizar de la misma manera en un portátil que un PC de sobremesa. Los casos de uso son variados. Se puede montar una SSD PCIe (o SATA) única o acompañada de otras SSD o discos duros. Se recomienda instalar el sistema y las principales aplicaciones en la SSD más rápida y como primera unidad de arranque. A partir de ahí se abren distintas posibilidades para cubrir con garantías el almacenamiento interno de un PC.

Google Chrome introducirá una característica para ahorrar memoria RAM

Uno de los aspectos más criticados de Chromium en general y de Google Chrome en particular es el uso de la RAM. Desde hace muchísimo tiempo y en parte debido al uso del multiproceso, los navegadores web basados en Chromium han tendido a consumir más recursos que sus competidores, si bien Firefox no anda a la zaga principalmente desde la implementación de Quantum, que le permitió mejorar enormemente su desempeño a costa de pasar por el mismo peaje.

Con el fin de administrar mejor la energía, Google Chrome va a introducir una característica llamada “ahorrador de memoria” para mejorar la eficiencia de la aplicación y suministrar al usuario información sobre el consumo de energía y cómo está afectando a la autonomía ofrecida por la batería del portátil. El “ahorrador de memoria” será ubicado en una página dentro del navegador y se parece a una característica introducida en Microsoft Edge, aunque el navegador del gigante de Redmond solo muestra un valor de ahorro de recursos abstracto. Chrome, por su parte, mostrará de forma exacta cuánta RAM se reasigna de cada pestaña dormida a tareas más importantes.

La futura característica de ahorro de memoria contará con un botón dedicado en Onmibar, la barra de direcciones. Al hacer clic sobre él se mostrará una pequeña ventana con información sobre el actual ahorro de memoria y un enlace hacia los ajustes de rendimiento. Esto debería de facilitar la detección de pestañas que están acaparando muchos recursos y en el tintero quedan las capacidades reales del protector de memoria incorporado.

La característica que permite ahorrar memoria en Chrome ya ha sido introducida en la rama Canary del navegador y puede ser habilitada mediante la sección chrome://flags, ya que por ahora está en fase de trabajo en progreso (Work in Progress/WIP). Tras habilitarla, el usuario tendrá que activarla a través de la configuración estándar de la aplicación. La inactivación de las pestañas puede ser forzada a través de la página chrome://discards.

Aunque Microsoft ha decidido tomar Chromium como base para su navegador Edge, la realidad es que la compañía no se ha conformado con crear otro clon y le ha añadido un puñado de características propias que le dan valor frente a su rival procedente de Google. Además de contar con posibilidades de ahorro de energía, Microsoft Edge lleva la delantera, desde hace tiempo, en el soporte de formatos multimedia (sobre todo cuando se trata de acelerar por hardware y ofrecer calidad en la reproducción). Chrome sigue teniendo una clara posición dominante, pero el dormirse puede terminar dando alas a la competencia.

GeForce RTX 4090: unbox y primer vistazo al nuevo tope de gama de NVIDIA

La GeForce RTX 4090 fue presentada a finales de septiembre y se convirtió en la gran abanderada de la nueva serie GeForce RTX 40, y de la arquitectura Ada Lovelace. Durante las últimas semanas os hemos ido contando sus detalles más importantes, hicimos una comparación entre el núcleo gráfico AD102, utilizado en dicha tarjeta gráfica, y el GA102, que está presente en la GeForce RTX 3090 Ti, y también tuvimos la oportunidad de lanzar un vistazo previo a la tecnología DLSS 3.

Os hemos dado una información bastante completa, y hoy por fin podemos compartir con vosotros un primer unboxing de la GeForce RTX 4090 de NVIDIA. No puedo daros información ni datos de rendimiento, pero espero que este primer contacto os sirva para abrir boca de lo que está por venir. Próximamente compartiremos con vosotros un análisis detallado, y os puedo adelantar que esta tarjeta gráfica me está sorprendido para bien.

La caja que ha utilizado NVIDIA con la GeForce RTX 4090 representa una clara apuesta por el minimalismo funcional. El diseño es limpio, elegante y discreto, y combina un tono negro con detalles en color dorado achampanado. En la parte frontal tenemos el logo de NVIDIA y el nombre del producto, y en la parte trasera un guiño al diseño de la tarjeta gráfica, concretamente a su zona interior.

Echando un vistazo al lateral salta a la vista que tenemos un sistema de apertura muy particular. Una vez que quitamos los plásticos protectores de los lados podemos abrir la caja, y el resultado es el que veis en la imagen, esta se abre hacia arriba para formar una pirámide y deja expuesta la GeForce RTX 4090. La verdad es que NVIDIA ha hecho un trabajo excelente con el empaquetado de esta tarjeta gráfica, y lo ha convertido en un objeto digno de colección.

Os dejo un par de imágenes más para que podáis ver cómo queda la caja con la gráfica, y os confirmo que NVIDIA ha utilizado un embalaje ecológico, de hecho está clasificado como biodegradable al estar fabricado principalmente de papel. Podéis ampliar la galería haciendo clic en cualquiera de las imágenes que la forman.

Nada más sacar la tarjeta gráfica de la caja queda patente que estamos ante un modelo grande y pesado, algo que es totalmente comprensible ya que estamos ante un modelo tope de gama que cuenta con un sistema de refrigeración de alto rendimiento, aunque sobre ello profundizaremos más adelante. Volviendo al plano físico de la GeForce RTX 4090, esta ocupa tres ranuras de expansión y mide 30,4 cm de largo y 13,7 cm de ancho. Tened en cuenta todo esto, ya que son las medidas que necesitáis para saber si cabrá o no en vuestra caja.

Calidad de acabados de la GeForce RTX 4090

NVIDIA ha mantenido el diseño y la calidad de acabados que vimos en la serie GeForce RTX 30, lo que significa que la GeForce RTX 4090 es una tarjeta gráfica premium en ambos aspectos. Esto queda claro desde el momento en el que la tenemos en las manos, ya que transmite una solidez fantástica y está perfectamente ensamblada.

En la cara superior tenemos la nomenclatura «RTX 4090», un ventilador y la línea tipo reloj de arena en color dorado achampanado que da un toque de distinción y genera un llamativo contraste con el color negro. En el lateral trasero vemos tres conectores DisplayPort y un conector HDMI, además de una gran apertura por donde se expulsa el aire caliente del interior de la tarjeta gráfica.

La cara posterior nos deja ver otro ventilador situado en la parte inferior, lo que significa que NVIDIA ha mantenido el sistema de refrigeración Dual Axial Flowthough que vimos en las GeForce RTX 30. Sin embargo, esto no quiere decir que el gigante verde no haya introducido cambios de importancia, todo lo contrario. Basta con lanzar una mirada detenida para darnos cuenta de que los ingenieros de NVIDIA han utilizado ventiladores con aspas más altas y más separadas, lo que hace que mejore el flujo de aire hasta en un 20%, o hasta un 15% manteniendo el mismo nivel de ruido que una GeForce RTX 3090 Founders Edition.

El radiador es enorme y está diseñado para facilitar el paso del aire, lo que permite que cada una de las aletas de aluminio se refrigeren de forma óptima. Como no podía ser de otra forma, el radiador hace contacto con todas las zonas clave de la GeForce RTX 4090 para mantener unas temperaturas de trabajo óptimas incluso a plena carga. En líneas generales, NVIDIA ha hecho un buen trabajo con esta tarjeta gráfica en términos de diseño, calidad de construcción y sistema de refrigeración.

Sistema de alimentación y conexiones: ¿qué fuente de alimentación necesitas para mover una GeForce RTX 4090?

La GeForce RTX 4090 utiliza el conector PCIe Gen5 de 16 pines y tiene un TGP de 450 vatios. Si no tenemos una fuente de alimentación que disponga de ese conector no pasa nada, ya que la versión Founders Edition incluye un adaptador para cuatro conectores de alimentación adicional de 8 pines, como podemos ver en la imagen adjunta.

Es importante que tengáis en cuenta que si no tenemos pensado hacer overclock no será necesario conectar los cuatro cables de 8 pines, nos bastará con conectar tres para llegar al nivel recomendado de 450 vatios (cada conector de 8 pines puede suministrar 150 vatios de forma segura). El adaptador que  incluye NVIDIA tiene circuitos activos que se encargan de identificar una posible incapacidad de alimentación, así que no tendréis nada de lo que preocuparos.

Para poder alimentar una GeForce RTX 4090 de forma segura y estable necesitaremos contar con una fuente de alimentación de 850 vatios como mínimo. Esto nos deja un margen considerable para que el resto de los componentes que forman un PC de gama alta no «pasen hambre». No obstante, tened en cuenta que esto también dependerá de la configuración que estemos utilizando, y que en algunos casos podríamos necesitar una fuente de 1.000 vatios. Así, por ejemplo, si tenemos instalado un procesador con overclock que registra un consumo muy alto (algunos chips pueden superar los 300 vatios a plena carga en esas condiciones).

Lamentablemente no puedo contaros nada más, pero como ya os he adelantado en los próximos días podréis disfrutar de un análisis completo de la GeForce RTTX 4090 en MuyComputer, así que estad atentos para no perdéroslo. Con todo, os recuerdo que NVIDIA ya compartió algunos datos de rendimiento de la GeForce RTX 4090, y parte de sus especificaciones, que incluimos justo debajo de estas líneas.

 GeForce RTX 4090 24GB
Placa-SKU PG139-SKU330
Arquitectura Ada (TSMC 5 nanómetros)
Núcleos CUDA 16.384
Unidades de ejecución 128
Frecuencia máxima 2610 megahercios
Frecuencia base 2.230 megahercios
Memoria 24 Gigabytes GDDR6X
Ancho de banda memoria 384 bits
TGP por defecto 450 vatios
TGP máximo 660 vatios
Conectores 1x HDMI 2.1a, 3x DisplayPort 1.4a
Alimentación 3 cables PCIe de 8 pines o 1 cable PCIe Gen 5 de 450 W o más

iPhone 14, Apple Watch y montañas rusas

Una de las novedades más interesantes, de las llegadas con los iPhone 14, Apple Watch Series 8, Apple Watch Ultra y Apple Wacht SE, la encontramos en Crash Detection, una función que combina las lecturas de unidad giroscópica y un acelerómetro capaz de detectar con precisión movimientos con una carga G muy elevada, con el fin de detectar en tiempo real si hemos sufrido algún tipo de colisión. Crash Detection es capaz de detectar colisiones frontales, traseras y laterales, así como se hemos volcado, y en caso de ello iniciará un protocolo de emergencia.

Ante el riesgo de que se haya producido un falso positivo, en primer lugar el sistema mostrará una cuenta regresiva de 10 segundos y, al finalizar, contactará de manera automática con los servicios de emergencia y, si los tenemos configurados, también alertará de lo ocurrido (bueno, de lo que sus sensores han interpretado) a nuestros contactos de emergencia. De un tiempo a esta parte, y especialmente con el Apple Watch, los de Cupertino están poniendo el foco en cómo sus dispositivos con conectividad celular pueden marcar la diferencia en casos de emergencia, y Crash Detection supone un paso más, y bastante largo, en ese sentido.

El planteamiento es bueno, la idea tiene sentido y, una vez en funcionamiento, puede marcar la diferencia entre un aviso inmediato a los servicios de emergencia tras un accidente, o la pérdida de un tiempo que puede resultar vital en muchas circunstancias de este tipo. En primeros auxilios y atención sanitaria a accidentados, los sesenta primeros minutos y las atenciones recibidas durante los mismos tienen una importancia capital en el desenlace del incidente.

Así pues, y como punto de partida, esta primera generación de Crash Detection es una buena idea. Ahora bien, hablamos de un desarrollo complejo y, como tal, cabe esperar que vaya evolucionando a mejor en futuras versiones. Y es que Apple afirma haber probado la función con más de un millón de horas de datos de accidentes automovilísticos y análisis de conducción en el mundo real, pero no parece haber completado las pruebas teniendo en cuenta otras circunstancias, y esto se estaría traduciendo en un efecto inesperado.

Y es que, según podemos leer en The Wall Street Journal, Crash Detection en varios iPhones 14 habría identificado como un accidente de tráfico el uso de una montaña rusa. Y claro, como consecuencia de ello, habría emitido falsas alarmas tanto a los servicios de emergencia como a los contactos de emergencia de las personas afectadas por el problema. Y es que, en esas circunstancias, parece bastante probable no darse cuenta del mensaje de aviso y de la cuenta atrás.

¿Es esto una crítica a Crash Detection? En verdad no. Sí que es cierto que es un fallo a tener en cuenta a la hora de emplear los dispositivos afectados, pero no es menos cierto que hablamos de unas circunstancias poco usuales. Cabe esperar que Apple se ponga la pilas para solucionarlo, y que los usuarios de iPhone 14 y Apple Watch de última generación presten atención a sus dispositivos cuando se suban a una montaña rusa (o a unos coches de choque, y otras atracciones similares), y que la segunda generación, o quizá una actualización de esta primera, sea capaz de diferenciar este tipo de entretenimientos de una colisión en carretera.

Ocho aplicaciones para personalizar Windows y ajustarlo a tus necesidades

Personalizar Windows y ajustarlo a las necesidades de cada usuario es posible… y muy necesario. Los sistemas operativos de Microsoft no destacan especialmente por su capacidad de personalización y cuesta bastante dejarlos al gusto de cada cual.

Windows 10 supuso un cambio importante en interfaz de usuario y manejo de funciones. La herramienta general de configuración del sistema se rediseñó (adecuadamente en términos visuales y de organización, que no en potencial) y añadió funciones adicionales, algunas desplazadas/eliminadas del clásico panel de control.

Sobre la base de Windows 10 y conceptos del Windows 10X, hoy defenestrado, Windows 11 supuso un soplo de aire fresco. Indudablemente su interfaz es más atractiva, pero hay apartados por rematar y el apartado de la personalización sigue siendo complicado de gestionar para tareas más avanzadas, cuando queremos variar sustancialmente su aspecto, el comportamiento de sus componentes u obtener acceso a funciones avanzadas que no estén accesibles directamente en la interfaz de usuario.

Cómo personalizar Windows

Aquí es donde entran las aplicaciones de terceros que nos hacen la vida más fácil a los usuarios «inquietos» que nos gustaría que Microsoft las ofreciera por defecto. Hay de todo. Las suites que permiten personalizar absolutamente todo el sistema o las que inciden en aspectos particulares como la interfaz principal, el menú Inicio, la barra de tareas, los iconos o el comportamiento del sistema. Te dejamos algunas de las mejores para las últimas versiones de Windows.

– ThisIsWin11 (todo en uno). Apodada como «The Real PowerToys for Windows 11», es gratuita, de código abierto y realmente potente ya que no se limita a personalizar elementos visuales, sino que ofrece ajustes para casi todo el sistema, información de las novedades y comparativa con versiones anteriores, automatización de ciertas funciones, mejora de la privacidad gestionando la telemetría y las aplicaciones para reducir el Bloatware. También incluye un gestor de paquetes, más útil e intuitivo que el propio WinGet de Microsoft.

– Winaero Tweaker (todo en uno). Una de las aplicaciones más conocidas y completas para personalizar Windows es Winaero. Su desarrollador reunió la mayoría de opciones disponibles en una herramienta «todo en uno» y bajo una sola interfaz. Cuenta con una cantidad enorme de características para variar aspectos visuales; colores; tamaño de los bordes de las ventanas, las barras de título y los menús, así como el apartado del audio y en general del comportamiento del sistema.

– Ultimate Windows Tweaker (todo en uno). Otra de las herramientas más completas para tunear Windows 10. Ofrece más de 200 ajustes, de privacidad y seguridad; de rendimiento; de los menús contextuales; de búsqueda y mucho más. También funciona como un software de personalización de la barra de tareas y permite cambiar los diseños de batería, fecha y hora, volumen, mostrar u ocultar carpetas frecuentes y archivos recientes, y otros.

– Open Shell (menú de inicio). El menú de inicio de Windows es un componente que nos acompaña desde que Microsoft implementó las interfaces gráficas en sus sistemas operativos. Si el diseño implementado hasta Windows 7 contentaba a todo tipo de usuarios, lo que llegó después fue un despropósito, eliminándolo incluso de Windows 8. Las últimas versiones de Windows 10 han mejorado la situación, pero si te gustaba más el de Windows 7, Open Shell es de los mejores que puedes usar.

– TweakNow PowerPack (comportamiento de Windows). Orientado a personalizar la forma en que Windows 10 se comporta en lugar de la forma en que se ve, esta aplicación es una de las más completas que puedes encontrar. Ofrece acceso a más de 100 configuraciones ocultas de Windows, un limpiador de registro, optimizador de RAM, perfiles para escritorios virtuales, administrador de inicio renovado o capacidad para asignar recursos de CPU para aplicaciones intensivas.

– Start11 (menú de Inicio). Llega de Stardock y es software comercial con un precio de 5,99 dólares, pero es uno de los mejores para conseguir un menú de inicio a la carta, con cuatro estilos diferentes. El de Windows 7 y Modern ofrecen la pantalla tradicional de dos columnas con todas las aplicaciones o favoritas a la izquierda y accesos directos a diferentes funciones y ubicaciones a la derecha. El de Windows 10 usa un menú familiar y la combinación de mosaicos. Incluso hay un estilo de Windows 11, pero ofrece más funciones y flexibilidad que el menú integrado.

– Taskbar Tweaker (barra de tareas). Seguramente la mejor herramienta de personalización para la barra de tareas. Incluye algunos ajustes que ya ofrece Windows 10, pero la mayoría no están accesibles ni siquiera actuando en el registro.

– CustomizerGod (iconos). Hay pocos desarrollos gratuitos mejores dedicados especialmente al manejo de los iconos del sistema, un componente que Microsoft ha renovado en las últimas versiones de Windows 10. Se pueden cambiar los del menú de Inicio, la barra de tareas, la batería, la pantalla de inicio de sesión, la hora y la fecha, y muchísimos más.

Amazon, Apple, Google, Meta y Microsoft unen fuerzas para el reconocimiento de la voz de personas con discapacidad

La Universidad de Illinois se ha asociado con Amazon, Apple, Google, Meta, Microsoft y Speech Accessibility Project para contribuir a la mejora del reconocimiento de la voz de personas con discapacidad y de diversos patrones de habla que en muchas ocasiones no son considerados por las inteligencias artificiales empleadas en ese ámbito. Esto incluye a personas con esclerosis lateral amiotrófica (ELA), Parkinson, parálisis cerebral, Síndrome de Down y otras enfermedades que, de manera directa o indirecta, terminan interfiriendo en el habla.

Mark Hasegawa-Johnson, profesor de la Universidad de Illinois, ha dicho que “las interfaces de voz deben estar disponibles para todos, y eso incluye a las personas con discapacidades. Esta tarea ha sido difícil porque requiere una gran cantidad de infraestructura, idealmente del tipo que pueden respaldar las principales empresas de tecnología, por lo que hemos creado un equipo interdisciplinario único con experiencia en lingüística, voz, inteligencia artificial, seguridad y privacidad”.

Por su parte, para incluir a personas con discapacidades como el Parkinson, el Speech Accessibility Project (Proyecto de Accesibilidad del Habla) se encargará de recolectar muestras de individuos que representan una diversidad de patrones en el habla, mientras que la Universidad de Illinois reclutará a voluntarios pagados para que contribuyan con muestras de voz y ayuden a crear un conjunto de datos privados y no identificados que pueda servir para entrenar a los modelos de aprendizaje automático.

Lo malo es que en un principio el proyecto, al menos de momento, se centrará en el inglés estadounidense, así que esperemos que en un futuro no solo se expanda a otras variantes del mismo idioma, sino a otros del resto del mundo.

Algunas organizaciones estadounidenses como Davis Phinney Foundation, dedicada al Parkinson, y Team Gleason, que ayuda a personas con ELA, ya han mostrado su apoyo al proyecto impulsado por la Universidad de Illinois.

A pesar de que la tecnología contribuye a facilitar la vida de la mayoría de las personas, en no pocas ocasiones termina excluyendo o dificultando su acceso a personas con discapacidades. Por otro lado, tampoco hace falta mirar a las personas con discapacidad para encontrarse con este tipo de situaciones, ya que los zurdos, en no pocas ocasiones, tienen que amoldarse a un mundo hecho para diestros, situación que puede complicarse cuando a eso se suma una discapacidad.

Estándares Wi-Fi pasados, presentes y futuros: cosas que debes saber

El Wi-Fi es una parte fundamental de nuestra sociedad, y forma parte de nuestro día a día. Hoy damos por hecho muchas cosas en este sentido, nos hemos acostumbrado a que funcione bien y a que ofrezca un excelente rendimiento incluso cuando tenemos varios dispositivos conectados, pero esto no siempre ha sido así.

En sus orígenes, esta tecnología tuvo algunas carencias importantes, y solo con el paso del tiempo y con el desarrollo de nuevos estándares se han ido superando. Su evolución ha sido muy interesante, y ha marcado puntos de inflexión muy claros que hoy queremos compartir con vosotros en este artículo, donde veremos uno a uno los diferentes estándares Wi-Fi que existen.

Para que este artículo os resulte más útil y fácil de consultar he hecho una distinción entre estándares Wi-Fi que podemos considerar como obsoletos y otros que están más avanzados y que son el presente o el futuro del sector. Como siempre, si tras leer el artículo os queda cualquier duda podéis dejarla en los comentarios.

Estándares Wi-Fi obsoletos

  • IEEE 802.11: el estándar que sirve de base en la comunicación de las redes inalámbricas. El primer estándar del año 1997 permitió transferir datos a 1 Mbps. Se identifica como el «abuelo» de esta tecnología
  • IEEE 802.11a: se desarrolló sobre la base del estándar IEEE 802.11. Llegó en 1999, funcionaba en la banda de 5 GHz y alcanzó una velocidad máxima de 54 Mbps. Se identifica como Wi-Fi 2.
  • IEEE 802.11b: fue el primer estándar desarrollado a finales de los años noventa. Es capaz de transferir dados a un máximo de 11 Mbps en la banda de 2,4 GHz. Se identifica como Wi-Fi 1. Debes tener cuidado con él, ya que puede arruinar tu conexión Wi-Fi.
  • IEEE 802.11g: también utiliza la banda de 2,4 GHz. Con este estándar, la velocidad máxima de transmisión se incrementó hasta los 54 Mbps. Llegó a partir de 2003. Se identifica como Wi-Fi 3.

Estándares utilizados a día de hoy

  • IEEE 802.11n: se ratificó en septiembre de 2009. Funciona tanto en la banda de 2,4 GHz como en la de 5 GHz y alcanza velocidades de hasta 600 Mbps. Se identifica como Wi-Fi 4.
  • IEEE 802.11ac: se estandarizó a finales de 2013. Opera en la banda de 5 GHz y puede alcanzar velocidades de 1.300 Mbps. Se identifica como Wi-Fi 5.
  • IEEE 802.11ax: un avance importante que alcanza velocidades de hasta 10 Gbps. Se identifica como Wi-Fi 6.

Estándares que serán el futuro

  • IEEE 802.11be: será el próximo gran salto en conectividad Wi-Fi. Trabajará en las bandas de 2,4 GHz, 5 GHz y 6 GHz, y promete velocidades de hasta 30 Gbps. Este se identificará como Wi-Fi 7. Este estándar ya está empezando a dar sus primeros pasos en entornos de pruebas, y empezará a estar disponible entre finales de 2023 y principios de 2024.

NVIDIA DLSS 3 y GeForce RTX 4090: un vistazo técnico a la nueva tecnología de NVIDIA

Digital Foundry ha publicado un interesante y completo análisis en vídeo donde prueban NVIDIA DLSS 3, una importante actualización de la conocida tecnología de reescalado y reconstrucción de la imagen que ahora es capaz de generar fotogramas mediante inteligencia artificial, algo que como ya os contamos en su momento ayuda a mejorar el rendimiento incluso en situaciones donde la CPU actúa como cuello de botella.

Esta es una de las claves más importantes de NVIDIA DLSS 3 porque, cuando activamos esta tecnología, la resolución base desde la que se renderiza un juego se reduce notablemente. Esto hace que mejore el rendimiento al reducirse el número de píxeles en escena, pero al mismo tiempo aumenta el impacto de la CPU y puede acabar dando pie a un cuello de botella.

No es difícil de entender, cuando activamos la tecnología DLSS 2 o DLSS 3 de NVIDIA en modo rendimiento se renderizan solo la mitad de los píxeles en horizontal y en vertical de la resolución objetivo, lo que significa que si queremos jugar en 4K la resolución base será de 1.920 x 1.080 píxeles. Al partir de esa resolución la CPU tiene un impacto grande porque la GPU no está trabajando realmente con más de 8 millones de píxeles, sino que solo está moviendo algo más de 2 millones de píxeles.

Para mejorar el rendimiento no era posible seguir reduciendo la resolución base de renderizado y mejorar la calidad del proceso de reescalado y de reconstrucción, puesto que ese cuello de botella a nivel de CPU sería cada vez más grave. Por eso con la llegada de NVIDIA DLSS 3 el gigante verde ha introducido la generación de fotogramas basada en inteligencia artificial, una tecnología que utiliza dos fotogramas secuenciales para crear un fotograma intermedio sin recurrir a la CPU y sin partir de una determinada cantidad de píxeles.

Todo ese fotograma se crea en la GPU sin una base de píxeles previa, algo que es posible gracias a ese análisis de dos fotogramas secuenciales renderizados de forma tradicional, y a la combinación de vectores de movimiento y a la tecnología Optical Flow Field. Todo este proceso se acelera en el hardware Optical Flow Accelerator presente en las GeForce RTX 40, y es una tecnología exclusiva de dicha generación porque, según NVIDIA, dicho hardware es dos veces más rápido y mucho más preciso que la versión presente en las GeForce RTX 30.

NVIDIA DLSS 3 puede multiplicar por 5 el rendimiento en juegos

Con la generación de fotogramas presente en NV IDIA DLSS 3, el gigante verde ha conseguido superar una de las limitaciones más importantes que se producía al reducir la resolución base para reescalar y reconstruir a una superior. Os hablo de ese cuello de botella a nivel de CPU que os he explicado anteriormente, y que explica por sí mismo por qué NVIDIA ha dado en la diana al introducir la generación de fotogramas mediante inteligencia artificial. Digital Foundry indica en el vídeo que la tecnología NVIDIA DLSS 3 puede ofrecer una mejora de hasta el 500% frente a la resolución nativa.

Al generar un fotograma intermedio mejora notablemente la fluidez del juego y esto se deja notar de forma clara, solo tenéis que ver la parte del principio en la que Digital Foundry nos muestra las animaciones de Spider-Man con y sin la generación de fotogramas activada. La diferencia es sustancial, y en términos de rendimiento el salto es enorme, tanto que puede doblar sin problemas el rendimiento en este título.

Por ejemplo, en Cyberpunk 2077 con calidad máxima y trazado de rayos en «psycho» vemos que la GeForce RTX 4090 supera a la GeForce RTX 3090 Ti en un 248%. La primera utilizaba NVIDIA DLSS 3 y la generación de fotogramas, mientras que la segunda utilizaba NVIDIA DLSS 2. Si nos limitamos a comparar la diferencia de rendimiento entre resolución nativa y DLSS 3 vemos que esta mejora hasta en un 399% el rendimiento también en Cyberpunk 2077 con la misma configuración, mientras que la mejora que obtiene el DLSS 2 es de un 261%.

Como hemos dicho, NVIDIA DLSS 3 ayuda a mejorar el rendimiento cuando se produce una situación limitada por CPU, pero si utilizamos un procesador de bajo rendimiento tendremos problemas de stuttering, es decir, de desincronización en la generación de fotogramas, y esto puede arruinar por completo nuestra experiencia al jugar, así que debemos tenerlo en cuenta. De nada nos servirá montar una GeForce RTX 4090 junto a un procesador que sea incapaz de alimentarla como es debido.

En Portal RTX es donde vemos la ganancia de rendimiento más espectacular, y es que gracias a NVIDIA DLSS 3 y la generación de fotogramas podemos conseguir una mejora de hasta el 560% frente a la resolución nativa en 4K, utilizando en ambos casos una GeForce RTX 4090. Frente al DLSS 2 vemos que el DLSS 3 llega a triplicar el rendimiento en dicho juego.

Generación de fotogramas: qué valor aporta, qué efectos produce y qué calidad de imagen ofrece

Digital Foundry también explica por qué necesitamos la generación de fotogramas. A priori la respuesta parece simple, porque nos permite mejorar el rendimiento y porque en el fondo es casi un paso evolutivo natural partiendo de la base que sentó el DLSS 2, pero hay otras cosas a tener en cuenta. Una de ellas es la mejora en la fluidez de las animaciones, y otra la tenemos en el auge de las pantallas con altas tasas de refresco, que necesitan de tasas de fotogramas por segundo muy elevadas para desarrollar todo su potencial.

Un juego rasterizado con una base técnica «tradicional» no supone un desafío actualmente gracias al DLSS 2, ni siquiera en 4K, pero si introducimos el trazado de rayos en la ecuación la cosa cambia. Ahí es donde entra en juego el DLSS 3, y es donde marca una enorme diferencia. Por otro lado, también nos permite mejorar el rendimiento incluso en escenarios donde hay un cuello de botella a nivel de CPU, un mal que a día de hoy es muy común en juegos.

NVIDIA DLSS 3 y la generación de fotogramas representan una manera de optimizar, de ir más allá de la potencia bruta y de superar muros que se escapan del espacio que ocupa la GPU, y por lo que he visto hasta el momento está bastante claro que NVIDIA ha acertado de pleno con este enfoque. En la parte final del vídeo podemos ver un análisis del tema de la latencia, una cuestión importante que, ya que ese proceso de generación de fotogramas aumenta la latencia.

Para solucionarlo tenemos la tecnología NVIDIA Reflex, que se activa automáticamente cuando NVIDIA DLSS 3 está funcionando. Gracias a dicha tecnología la latencia en Portal RTX con DLSS 3 activado es de solo 56 ms, lo que significa que está prácticamente al mismo nivel que la latencia que registra dicho título con DLSS 2, y supera de forma clara los 95 ms que tenemos en resolución nativa. En Cyberpunk 2077 la latencia con DLSS 3 activado es de 54 ms, cifra que supera los 62 ms del modo nativo, aunque queda por debajo de los 31 ms del DLSS 2.

En la parte final del vídeo tenemos un tema muy importante, la calidad de esos fotogramas generados. Según Digital Foundry, NVIDIA DLSS 3 hace un buen trabajo, y queda confirmado que no es una simple tecnología de interpolación de fotogramas, ya que ofrece una calidad de imagen y un resultado superior cuando se compara con este tipo de soluciones. En el vídeo podemos ver los problemas que da Adobe Pixel Motion, por ejemplo. ¿Significa que es una tecnología perfecta? No, también presenta errores y artefactos, pero el resultado final es muy bueno en general, y está claro que NVIDIA irá mejorando el DLSS 3 con futuras actualizaciones.

También podemos confirmar que la consistencia en la generación de fotogramas al activar NVIDIA DLSS 3 es buena, así que no tendremos nada de lo que preocuparnos en este sentido, siempre que acompañemos a la GeForce RTX 4090 de un procesador lo bastante potente como para «alimentarla».

Kioxia presenta la primera tarjeta microSDXC de 2 Tbytes

Kioxia ha anunciado los primeros prototipos funcionales de tarjetas de memoria microSDXC de 2 Tbytes. Una capacidad de almacenamiento admitida desde hace años por el estándar, pero que hasta ahora no se había utilizado. 

Kioxia usará memoria BiCS FLASH 3D y un controlador de diseño propio para alcanzar una capacidad realmente estratosférica. Se fabricarán con tecnología de fabricación patentada por la compañía, apilando dieciséis troqueles de 1 terabit de memoria flash 3D para un espesor máximo de 0,8 mm en el área de montaje del troquel.

Las unidades alcanzarán velocidades máximas en lectura secuencial de 104 Mbps bajo UHS-I y suponemos un mínimo de 30 Mbps en escrituras. Actualmente, se encuentran en fase de prototipo y la compañía espera comenzar la producción masiva en 2023.

La microSDXC de 2 Tbytes hace más interesante la norma

Hasta el lanzamiento de SD Express que usarán los protocolos PCIe y NVMe (los mismos que SSD), las nuevas microSD de Kioxia serán las que ofrezcan la mayor capacidad de almacenamiento de la industria.

Hay que decir que las tarjetas microSD, la variante más pequeña del estándar de almacenamiento externo y extraíble Secure Digital, son un grupo de producto imprescindible para aumentar la capacidad de almacenamiento de centenares de millones de dispositivos, desde smartphones a cámaras fotográficas, pasando por drones, tablets, GPS, consolas portátiles y un largo etc.

Aunque el objetivo principal de este formato sigue siendo el almacenamiento de datos y de hecho hay dispositivos que lo usan como único medio, también se usan para ejecutar aplicaciones y liberar el almacenamiento interno de los dispositivos como se puede hacer en smartphones con Android, para ejecutar sistemas operativos completos o como medio autoarrancable.

Esos 2 Tbytes de capacidad serán de utilidad para todos casos de uso. Estarán disponibles en 2023.

iPhone 15 Ultra, el próximo tope de gama de Apple estrenará nuevo diseño

Mark Gurman, uno de los analistas más conocidos de Bloomberg por su experiencia en el mundo Apple, ha lanzado algunas predicciones interesantes sobre el futuro de la compañía de la manzana, y en ellas habla del iPhone 15 Ultra y de un importante cambio de diseño en 2023. Vamos a analizar ambas con detalle.

El iPhone 15 Ultra será, en teoría, el próximo smartphone tope de gama de alta y no, no se trata de un nuevo modelo que coexistirá con el iPhone 15 Pro Max, será su sustituto y sucederá al iPhone 14 Pro Max. El cambio de nombre tiene sentido, ya que el distintivo «Ultra» es más sencillo y fácil de utilizar que «Pro Max», y por otro lado también da la sensación de estar hablando de algo superior, es decir, para el consumidor la palabra «Ultra» da una sensación de superioridad clara frente a «Pro», o «Pro Max» en este caso.

Apple debutó con la marca «Pro Max» en 2019, concretamente con el lanzamiento de los iPhone 11 Pro Max. Desde entonces ha venido manteniendo esa nomenclatura hasta el día de hoy, pero ya sabemos que las marcas y los nombres comerciales son algo vivo, y que Apple no duda en ajustarlas o cambiarlas cuando estima que es necesario, así que esta información tiene todo el sentido del mundo, y la fuente encima es muy fiable.

El cambio de nombre a iPhone 15 Ultra no supondrá ninguna novedad relevante, lo que significa que este terminal seguirá manteniendo su enfoque y su posición en el mercado, es decir, seguirá siendo una versión de mayor tamaño de su hermano pequeño, el iPhone 15 Pro. Puede que Apple decida incluir, como ha hecho en otras ocasiones, alguna diferencia a nivel de hardware, pero incluso aunque esto ocurra esas diferencias deberían ser menores.

Por lo que respecta al esperado cambio de diseño, Gurman cree que Apple introducirá cambios importantes en el iPhone 15, y en todas sus versiones. Es importante tener en cuenta que esto afectaría a dos puntos clave, el diseño de la cámara trasera y la disposición de las lentes, y también al marco del terminal. No debemos esperar cambios relevantes en el frontal, y la Dynamic Island ha llegado para quedarse, así que volverá a estar presente en la próxima generación de smartphones de Apple.

Nos quedamos con una duda importante, eso sí, ¿qué ocurrirá con los iPhone 15 y iPhone 15 Max? Todo parece indicar que Apple repetirá la estrategia que vimos con los iPhone 14 y iPhone 14 Max, lo que significa que ambos modelos de nueva generación reutilizarán el SoC A16, presente en los iPhone 14 Pro y iPhone 14 Pro Max. Con todo, al menos harán gala de ese nuevo cambio de diseño que hemos comentado, y tendrán la Dynamic Island.

Si todo va según lo previsto la presentación del iPhone 15 en todas sus versiones tendrá lugar en septiembre del año que viene, aunque podemos esperar un goteo constante de informaciones y filtraciones a partir del primer y segundo trimestre del año que viene, como ya ha ocurrido en años anteriores con otros modelos.

x ¡Hola! ¿Cómo podemos ayudarte? Haz click para escribirnos.