Seguridad de datos Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/seguridad-de-datos/ El futuro de la tecnología en un solo lugar. Tech News. Sun, 01 Jun 2025 07:16:31 +0000 en-US hourly 1 https://wordpress.org/?v=6.9.1 https://tecnofuturo24.com/wp-content/uploads/2024/01/cropped-cropped-TecnoFuturo24Box-32x32.jpeg Seguridad de datos Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/seguridad-de-datos/ 32 32 Meta impulsa la automatización en la evaluación de riesgos de sus productos mediante inteligencia artificial https://tecnofuturo24.com/meta-impulsa-la-automatizacion-en-la-evaluacion-de-riesgos-de-sus-productos-mediante-inteligencia-artificial/ Sun, 01 Jun 2025 07:16:31 +0000 https://tecnofuturo24.com/?p=14125 Meta, la empresa matriz de plataformas tan populares como Instagram y WhatsApp,…

The post Meta impulsa la automatización en la evaluación de riesgos de sus productos mediante inteligencia artificial appeared first on TecnoFuturo24.

]]>
Meta, la empresa matriz de plataformas tan populares como Instagram y WhatsApp, está implementando un sistema automatizado basado en inteligencia artificial (IA) para gestionar la evaluación de riesgos y privacidad en sus actualizaciones de productos. Según documentos internos, el nuevo enfoque aspira a que hasta un 90% de las modificaciones realizadas en sus aplicaciones sean revisadas inicialmente por un sistema automatizado, lo que representa un cambio importante en cómo Meta aborda la responsabilidad y el cumplimiento regulatorio en el desarrollo de sus servicios.

Transformación en la evaluación de riesgos de Meta

Desde sus inicios, Meta ha estado sujeta a regulaciones estrictas que buscan proteger la privacidad de los usuarios y minimizar los daños potenciales derivados de sus productos digitales. En 2012, la compañía firmó un acuerdo con la Comisión Federal de Comercio (FTC) de Estados Unidos, que establece la obligación de realizar revisiones periódicas sobre los riesgos de privacidad de sus productos, especialmente cada vez que se introducen actualizaciones o cambios significativos.

Históricamente, estas evaluaciones han sido realizadas por equipos humanos especializados, quienes analizan de forma exhaustiva cada cambio para identificar posibles impactos negativos antes de su lanzamiento. Sin embargo, la creciente complejidad y la velocidad con la que se deben desplegar mejoras han motivado a Meta a buscar soluciones más ágiles que permitan acelerar este proceso sin perder control sobre los riesgos.

El nuevo sistema basado en inteligencia artificial

La innovación principal del nuevo sistema radica en su capacidad para automatizar la revisión de riesgos mediante algoritmos de inteligencia artificial. De acuerdo con lo reportado, los equipos de producto deberán completar un cuestionario detallado sobre las actualizaciones o nuevas funciones que planean lanzar. A partir de esta información, la IA evaluará de forma instantánea los riesgos potenciales relacionados con la privacidad y otros daños, generando un dictamen rápido que incluye las condiciones que deben cumplirse antes de aprobar el despliegue.

Este método busca acelerar significativamente el tiempo entre el desarrollo y la implementación de nuevas funcionalidades, lo que a su vez puede traducirse en una mayor capacidad de Meta para innovar y adaptarse a las demandas del mercado y de los usuarios.

Ventajas y desafíos de la automatización

La automatización con IA en la evaluación de riesgos presenta varios beneficios evidentes. Primero, permite escalar el proceso de revisión para manejar un volumen mucho mayor de cambios, algo que se hace imprescindible dada la cantidad de actualizaciones frecuentes en plataformas como Instagram y WhatsApp. Segundo, al proporcionar respuestas rápidas, los equipos pueden ajustar sus desarrollos de manera inmediata y evitar retrasos que impacten la experiencia del usuario.

No obstante, también existen inquietudes importantes. Algunos expertos y exejecutivos de la empresa han advertido sobre el riesgo de que una revisión automatizada podría no detectar ciertos efectos negativos o externos relacionados con las actualizaciones antes de que se produzcan daños reales en el mundo digital. La dependencia excesiva en sistemas automáticos podría reducir la capacidad preventiva en contextos complejos, donde la supervisión humana y la interpretación profunda son esenciales.

Balance entre tecnología y supervisión humana

Meta ha declarado que, pese a la incorporación de la IA para tareas de bajo riesgo y mayor volumen, mantiene la responsabilidad humana en las evaluaciones rigurosas y en casos novedosos o especialmente complejos. Esto significa que los expertos continuarán jugando un rol fundamental en la supervisión y el control final de los productos, garantizando que la automatización sea un apoyo y no un sustituto completo del juicio humano.

La empresa ha invertido más de 8 mil millones de dólares en su programa de privacidad y seguridad, lo que refleja un compromiso sostenido para cumplir con regulaciones y mejorar la experiencia de los usuarios, especialmente en un entorno donde las amenazas y los riesgos evolucionan rápidamente.

Contexto y regulación actual

El contexto regulatorio en el que opera Meta es cada vez más exigente, con gobiernos y organismos internacionales impulsando normativas más estrictas para proteger datos personales y garantizar que las plataformas digitales sean responsables de sus efectos en la sociedad. La automatización de procesos puede ser una respuesta técnica a la necesidad de cumplir estos estándares con mayor eficacia, pero debe implementarse cuidadosamente para evitar fallos que afecten a millones de usuarios.

En este sentido, Meta busca no solo cumplir con el acuerdo firmado con la FTC sino también avanzar hacia prácticas que permitan anticipar y gestionar riesgos de forma proactiva. La combinación de tecnología y supervisión humana será clave para alcanzar este objetivo.

Impacto en usuarios y desarrolladores

Para los usuarios, la promesa de una evaluación de riesgos más rápida puede traducirse en actualizaciones que mejoren la funcionalidad y seguridad de las aplicaciones con mayor frecuencia. Sin embargo, también implica la necesidad de una mayor transparencia sobre cómo se identifican y gestionan los riesgos, para generar confianza y asegurar que los posibles impactos negativos se minimicen.

Para los desarrolladores dentro de Meta, el nuevo sistema ofrecerá un marco estructurado que guía el diseño y la implementación de nuevas funciones, a través de cuestionarios que deben completar y reglas claras que deben seguir para que sus productos pasen la revisión automatizada. Esto puede ayudar a estandarizar procesos y reducir incertidumbres en torno a la aprobación de cambios.

Futuro de la evaluación de riesgos en tecnología

El movimiento de Meta hacia la automatización de la evaluación de riesgos es un indicativo del rumbo que puede tomar la industria tecnológica en general. A medida que la inteligencia artificial avanza y se vuelve más sofisticada, es probable que otras empresas también adopten modelos similares para equilibrar la velocidad de innovación con la gestión responsable de riesgos.

Al mismo tiempo, el desarrollo de estos sistemas plantea interrogantes sobre la ética y la responsabilidad en el uso de IA para decisiones que afectan la privacidad y seguridad de los usuarios. Será crucial establecer marcos regulatorios claros y garantizar que la supervisión humana mantenga un papel central en la toma de decisiones críticas.

The post Meta impulsa la automatización en la evaluación de riesgos de sus productos mediante inteligencia artificial appeared first on TecnoFuturo24.

]]>
WhatsApp revoluciona la mensajería con nuevas funciones de inteligencia artificial https://tecnofuturo24.com/whatsapp-revoluciona-la-mensajeria-con-nuevas-funciones-de-inteligencia-artificial/ Mon, 05 May 2025 06:46:37 +0000 https://tecnofuturo24.com/?p=13446 En medio de una competencia cada vez más intensa entre gigantes tecnológicos…

The post WhatsApp revoluciona la mensajería con nuevas funciones de inteligencia artificial appeared first on TecnoFuturo24.

]]>
En medio de una competencia cada vez más intensa entre gigantes tecnológicos por liderar el desarrollo de herramientas basadas en inteligencia artificial (IA), WhatsApp, la popular aplicación de mensajería instantánea propiedad de Meta Platforms, ha dado un paso firme al integrar nuevas funcionalidades que transformarán la forma en que los usuarios se comunican. Esta evolución marca un hito en la historia de la aplicación, con la incorporación de IA para automatizar tareas, generar contenido personalizado y ofrecer una experiencia de usuario más dinámica y eficiente.

El despliegue de estas herramientas se produce tras el lanzamiento de Meta AI, el nuevo asistente de inteligencia artificial de Meta diseñado para competir directamente con ChatGPT de OpenAI y Gemini de Google. Esta estrategia confirma que la empresa liderada por Mark Zuckerberg está decidida a posicionarse como protagonista en la carrera tecnológica del siglo XXI, centrada ahora en el desarrollo y aplicación de IA generativa.


¿Qué es Meta AI y por qué afecta directamente a WhatsApp?

Meta AI no es solo una aplicación, sino una iniciativa de gran envergadura que busca integrar capacidades avanzadas de IA en todos los productos y servicios del ecosistema Meta, incluyendo Facebook, Instagram, Messenger y por supuesto, WhatsApp. A través de este movimiento, la compañía pretende transformar sus plataformas en entornos más inteligentes, interactivos y personalizados, capaces de anticiparse a las necesidades del usuario.

En WhatsApp, esto se traduce en nuevas herramientas que utilizan modelos de lenguaje naturales para asistir en la redacción de mensajes, generar resúmenes automáticos de conversaciones extensas y ofrecer recomendaciones contextuales. Estas funciones están diseñadas para hacer la comunicación más fluida, rápida y cómoda, especialmente en entornos profesionales o de alto volumen de mensajes.


Nuevas funciones de IA en WhatsApp

Entre las principales características que llegarán a WhatsApp gracias a esta integración con IA se encuentran:

1. Composición automática de mensajes

La nueva función permitirá a los usuarios redactar mensajes con la ayuda de la inteligencia artificial. A partir de unas pocas palabras o una idea general, el sistema será capaz de generar un mensaje completo y coherente, adaptado al tono y estilo del usuario. Esta herramienta será especialmente útil para personas que desean expresarse con mayor claridad o rapidez.

2. Generación de resúmenes de conversaciones

Una de las funciones más esperadas es la capacidad de generar resúmenes automáticos de conversaciones extensas. Esta innovación ahorrará tiempo y facilitará la organización de información, especialmente en grupos donde se intercambian decenas o cientos de mensajes diariamente.

3. Sugerencias inteligentes de redacción

El sistema podrá ofrecer sugerencias de redacción en tiempo real, analizando el contexto de la conversación para proponer respuestas o frases adecuadas. Esto no solo acelerará la comunicación, sino que también ayudará a evitar errores gramaticales o de expresión.

4. Chatbot integrado en conversaciones

Aunque Meta ya había anunciado la integración de su chatbot en otras plataformas, su llegada a WhatsApp es particularmente significativa. Este chatbot, impulsado por Meta AI, estará disponible para responder preguntas, buscar información relevante, generar contenidos breves como recordatorios o listas, e incluso ayudar a gestionar la agenda del usuario.


Privacidad y seguridad: el gran reto de la inteligencia artificial

La introducción de funciones basadas en IA en aplicaciones de mensajería plantea inevitablemente preguntas relacionadas con la privacidad y la seguridad de los datos. Muchos expertos han manifestado su preocupación por el nivel de acceso que podrían tener los sistemas de IA a los mensajes personales, contactos e interacciones de los usuarios.

Meta ha sido rápida en responder a estas inquietudes, asegurando que ha desarrollado un sistema denominado ‘Private Processing’. Este sistema actúa como una infraestructura de procesamiento seguro, garantizando que las solicitudes de los usuarios sean gestionadas sin que ni la propia Meta ni terceros puedan acceder al contenido de los mensajes. Según la compañía, esta tecnología permite mantener la confidencialidad de las conversaciones incluso cuando se hace uso de funciones de inteligencia artificial.


Funciones de IA completamente opcionales

Un aspecto importante del enfoque adoptado por Meta es que todas las funciones de inteligencia artificial en WhatsApp serán opcionales. Los usuarios podrán activarlas de forma manual y gestionar su comportamiento mediante un nuevo apartado llamado ‘Privacidad avanzada de chat’. Esta sección ofrecerá controles detallados para limitar o desactivar ciertas funcionalidades, como la exportación automática de chats o la utilización de datos por parte de la IA para personalizar respuestas.

Además, Meta ha diseñado el sistema para detectar intentos de manipulación o uso malicioso de las funciones, emitiendo alertas automáticas en caso de detectar actividades sospechosas. Esta medida se enmarca dentro del compromiso de la compañía de ofrecer herramientas seguras y responsables, sin comprometer la confianza de los usuarios.


WhatsApp como plataforma inteligente

La incorporación de estas funciones transforma a WhatsApp en una plataforma de comunicación mucho más avanzada, capaz de adaptarse a las necesidades cambiantes de sus más de 2.000 millones de usuarios en todo el mundo. Lejos de limitarse al envío de mensajes de texto, WhatsApp se convierte en un entorno donde la inteligencia artificial permite automatizar tareas rutinarias, mejorar la redacción y organización de ideas, y generar contenido útil en tiempo real.

Este enfoque también podría tener un impacto importante en el entorno empresarial, donde muchas compañías utilizan WhatsApp como canal de atención al cliente o comunicación interna. Con estas nuevas herramientas, será posible optimizar procesos, reducir tiempos de respuesta y ofrecer un servicio más personalizado.


¿Qué diferencia estas funciones de otras soluciones existentes?

Si bien plataformas como ChatGPT y Gemini ya ofrecen funciones similares en otros contextos, la ventaja de WhatsApp radica en su integración directa con el flujo natural de comunicación. No es necesario cambiar de aplicación, copiar y pegar contenido o utilizar servicios externos. Todo se gestiona desde una única interfaz, intuitiva y familiar para los usuarios.

Además, la integración con otras aplicaciones del ecosistema Meta, como Facebook e Instagram, abre nuevas posibilidades para una comunicación multicanal coordinada y potenciada por IA.


Impacto en el mercado de mensajería

La decisión de Meta de potenciar WhatsApp con funciones de inteligencia artificial no solo responde a una necesidad técnica, sino también estratégica. En un contexto donde aplicaciones como Telegram, Signal o incluso WeChat incorporan herramientas cada vez más sofisticadas, Meta busca consolidar la posición de WhatsApp como líder en el segmento de mensajería instantánea.

Esta evolución tecnológica también podría influir en los modelos de monetización de la plataforma, permitiendo a Meta ofrecer versiones premium o servicios especializados con funcionalidades avanzadas de IA, especialmente dirigidas a empresas y creadores de contenido.


IA como asistente personal en el bolsillo

Con estas mejoras, WhatsApp se perfila como un asistente personal accesible desde cualquier dispositivo móvil. La posibilidad de redactar mensajes automáticamente, resumir conversaciones complejas y recibir sugerencias inteligentes representa un ahorro significativo de tiempo para millones de personas.

En contextos laborales, esto podría traducirse en mayor productividad, mientras que en la vida personal, permitirá mantener conversaciones más fluidas y coherentes, incluso en momentos de cansancio o falta de tiempo.


El futuro de WhatsApp con IA

El camino hacia la integración total de inteligencia artificial en WhatsApp apenas comienza. Es probable que en los próximos meses se anuncien nuevas funcionalidades basadas en IA generativa, como la creación de imágenes, notas de voz automáticas o incluso traducción en tiempo real.

El éxito de estas funciones dependerá, en gran medida, de la capacidad de Meta para equilibrar innovación tecnológica con protección de la privacidad y simplicidad de uso. Hasta ahora, las señales indican que se está trabajando con un enfoque cauteloso y adaptativo, ajustando cada herramienta a las necesidades reales de los usuarios.


Un nuevo estándar en comunicación digital

Lo que WhatsApp está implementando con estas funciones no solo representa una mejora incremental, sino un cambio en la forma en que las personas interactúan a través de aplicaciones de mensajería. A medida que la inteligencia artificial se convierte en un componente habitual de la vida digital, herramientas como las que propone Meta marcan un nuevo estándar en la industria: conversaciones más eficientes, asistentes más inteligentes y privacidad controlada por el usuario.

Por ahora, la aplicación seguirá actualizándose de forma progresiva, permitiendo que los usuarios adopten las nuevas funciones a su ritmo. Lo que está claro es que WhatsApp, más allá de ser una simple app de mensajería, se está posicionando como una plataforma de comunicación avanzada, impulsada por inteligencia artificial y diseñada para un futuro cada vez más conectado.

The post WhatsApp revoluciona la mensajería con nuevas funciones de inteligencia artificial appeared first on TecnoFuturo24.

]]>
Cómo eliminar las conversaciones que graba tu Alexa y proteger tu privacidad https://tecnofuturo24.com/como-eliminar-las-conversaciones-que-graba-tu-alexa-y-proteger-tu-privacidad/ Thu, 13 Mar 2025 19:46:22 +0000 https://tecnofuturo24.com/?p=12166 ​Los asistentes virtuales, como Alexa de Amazon, han transformado la manera en…

The post Cómo eliminar las conversaciones que graba tu Alexa y proteger tu privacidad appeared first on TecnoFuturo24.

]]>
Los asistentes virtuales, como Alexa de Amazon, han transformado la manera en que interactuamos con la tecnología en nuestros hogares. Estos dispositivos nos permiten realizar tareas cotidianas mediante comandos de voz, desde reproducir música hasta controlar dispositivos inteligentes en el hogar. Sin embargo, su capacidad para escuchar y registrar nuestras conversaciones ha generado preocupaciones sobre la privacidad y la seguridad de nuestros datos personales.

¿Cómo y por qué Alexa graba nuestras conversaciones?

Alexa está diseñada para activarse al escuchar una “palabra de activación”, comúnmente “Alexa”. Una vez que detecta esta palabra, el dispositivo comienza a grabar y transmitir la solicitud a los servidores de Amazon para procesarla y proporcionar una respuesta adecuada. Según Amazon, ningún audio se almacena ni se envía a la nube a menos que el dispositivo detecte la palabra de activación. Sin embargo, existen casos documentados donde Alexa ha sido activada accidentalmente, grabando fragmentos de conversaciones sin la intención del usuario.

Preocupaciones sobre la privacidad

La posibilidad de que Alexa grabe conversaciones sin el conocimiento explícito del usuario ha suscitado inquietudes. Expertos en ciberseguridad han señalado que, aunque Alexa está programada para activarse solo con la palabra clave, pueden ocurrir falsos positivos que resulten en grabaciones no deseadas. Además, la ubicación del dispositivo dentro del hogar puede influir en la probabilidad de activaciones accidentales. Por ejemplo, colocar Alexa cerca de una ventana podría permitir que personas externas interactúen con el dispositivo, comprometiendo potencialmente la seguridad.

Pasos para eliminar las grabaciones de voz de Alexa

Para aquellos que desean mantener su privacidad y gestionar las grabaciones de voz almacenadas por Alexa, Amazon proporciona opciones para revisar y eliminar estos registros. A continuación, se detallan los pasos para hacerlo:

  1. Acceder a la aplicación de Alexa: Asegúrate de tener instalada la aplicación de Alexa en tu dispositivo móvil.

  2. Ingresar al menú “Más”: En la parte inferior de la aplicación, toca la pestaña “Más”.

  3. Seleccionar “Configuración”: Dentro del menú, elige la opción “Configuración”.

  4. Entrar en “Privacidad de Alexa”: En este apartado, podrás gestionar todo lo relacionado con la privacidad y las grabaciones de voz.

  5. Consultar el historial de voz: Aquí puedes revisar las grabaciones asociadas a tu cuenta.

  6. Eliminar las grabaciones: Tienes la opción de eliminar grabaciones individuales, por rango de fechas, por dispositivo o todas a la vez.

  7. Configurar la eliminación automática: Puedes establecer que las grabaciones se eliminen automáticamente cada 3 meses, cada 18 meses o no guardarlas en absoluto.

  8. Usar comandos de voz para eliminar grabaciones: También es posible decir “Alexa, borra lo que acabo de decir” o “Alexa, borra todo lo que dije hoy” para eliminar grabaciones recientes.

Medidas adicionales para proteger tu privacidad

Además de gestionar las grabaciones de voz, existen otras prácticas que pueden ayudarte a proteger tu privacidad al usar dispositivos Alexa:

  • Desactivar el micrófono: La mayoría de los dispositivos Echo cuentan con un botón físico para desactivar el micrófono. Al presionarlo, el dispositivo dejará de escuchar hasta que lo vuelvas a activar.

  • Ubicación estratégica del dispositivo: Evita colocar Alexa cerca de ventanas o en áreas donde pueda captar conversaciones sensibles.

  • Revisar permisos y configuraciones: Periódicamente, verifica los permisos otorgados a Alexa y ajusta las configuraciones según tus preferencias de privacidad.

Si bien Alexa ofrece numerosas comodidades en la vida diaria, es fundamental ser conscientes de las implicaciones en términos de privacidad. Gestionar activamente las grabaciones de voz y ajustar las configuraciones del dispositivo puede ayudarte a mantener un equilibrio entre funcionalidad y privacidad. Al estar informado y tomar medidas proactivas, puedes disfrutar de los beneficios de la tecnología sin comprometer la seguridad de tus datos personales.

The post Cómo eliminar las conversaciones que graba tu Alexa y proteger tu privacidad appeared first on TecnoFuturo24.

]]>
EL ACCESO DE DOGE A BASES DE DATOS FEDERALES GENERA PREOCUPACIONES SOBRE PRIVACIDAD Y USO EN IA https://tecnofuturo24.com/el-acceso-de-doge-a-bases-de-datos-federales-genera-preocupaciones-sobre-privacidad-y-uso-en-ia/ Thu, 06 Mar 2025 22:56:11 +0000 https://tecnofuturo24.com/?p=12016 El Departamento de Eficiencia Gubernamental (DOGE) ha obtenido acceso sin precedentes a…

The post EL ACCESO DE DOGE A BASES DE DATOS FEDERALES GENERA PREOCUPACIONES SOBRE PRIVACIDAD Y USO EN IA appeared first on TecnoFuturo24.

]]>
El Departamento de Eficiencia Gubernamental (DOGE) ha obtenido acceso sin precedentes a al menos siete bases de datos federales sensibles, incluyendo las de la Administración del Seguro Social y el Servicio de Impuestos Internos (IRS). Esta situación ha suscitado una ola de preocupaciones en torno a la privacidad y la seguridad cibernética. Sin embargo, un aspecto menos discutido, pero potencialmente más alarmante, es la posibilidad de que esta información sea utilizada para entrenar sistemas de inteligencia artificial (IA) de una empresa privada vinculada a Elon Musk.

¿Está el Gobierno Facilitando Datos para la IA de Empresas Privadas?

La secretaria de prensa de la Casa Blanca ha declarado que los datos recopilados por DOGE no están siendo utilizados para entrenar modelos de IA de Musk, a pesar de su control sobre el departamento. No obstante, han surgido evidencias que indican que empleados de DOGE mantienen simultáneamente cargos en al menos una de las empresas de Musk.

Por ejemplo, dentro de la Administración Federal de Aviación (FAA), se ha identificado que empleados de SpaceX cuentan con direcciones de correo electrónico gubernamentales, lo que sugiere un posible canal de transferencia de datos federales hacia las empresas de Musk, incluyendo xAI. Adicionalmente, el chatbot de IA de la empresa, Grok, ha evitado ofrecer una negativa clara sobre el uso de estos datos para su entrenamiento.

El Valor Incalculable de los Datos Gubernamentales para la IA

Para las compañías dedicadas al desarrollo de IA, las bases de datos del gobierno representan una fuente de información incomparable. Empresas como OpenAI, Google y xAI dependen actualmente de información extraída de la web, pero los repositorios gubernamentales ofrecen algo mucho más valioso: registros verificados de comportamientos humanos en toda la población.

Estos datos no solo son más extensos, sino también diferentes en naturaleza. Mientras que las redes sociales y los historiales de navegación reflejan conductas seleccionadas, los datos gubernamentales capturan decisiones reales y sus consecuencias. Por ejemplo:

  • Registros de Medicare: Muestran elecciones en salud y sus resultados.
  • Datos del IRS y el Tesoro: Revelan decisiones financieras y su impacto a largo plazo.
  • Estadísticas de empleo y educación: Ofrecen trayectorias educativas y laborales verificadas.

Estos registros tienen un valor adicional debido a su fiabilidad y continuidad en el tiempo. A diferencia de la información caótica disponible en línea, los datos gubernamentales siguen protocolos estandarizados, son auditados regularmente y deben cumplir requisitos legales de precisión. Además, incluyen información sobre segmentos de la población que no están representados en el entorno digital, lo que permitiría entrenar modelos de IA con una representación más completa de la sociedad.

Ventajas Técnicas para la IA de Musk

Los sistemas actuales de IA presentan limitaciones que el acceso a datos gubernamentales podría eliminar. Modelos como ChatGPT o Gemini a menudo cometen errores debido a su entrenamiento en información popular pero no necesariamente verídica. Con datos gubernamentales, una IA podría aprender directamente de los efectos reales de políticas públicas y tendencias económicas, logrando una comprensión sin precedentes de los sistemas sociales.

Imaginemos una IA entrenada no solo en opiniones sobre la atención médica, sino en los resultados reales de tratamientos en millones de pacientes. O un modelo que analice décadas de información económica, permitiendo predecir crisis antes de que ocurran. Estas capacidades ofrecerían una ventaja insuperable a cualquier empresa privada que tuviera acceso exclusivo a estos datos.

El Riesgo de un Monopolio de Información

El impacto de una IA entrenada con datos gubernamentales va más allá del desarrollo de chatbots avanzados. Podría permitir a una empresa privada como xAI ejercer un control sin precedentes sobre sectores estratégicos:

  • Salud: Con acceso a bases de datos de Medicare y Medicaid, una IA podría identificar tratamientos más efectivos y posicionarse como la fuente de información definitiva para aseguradoras y hospitales, dominando el sector.
  • Finanzas: La información económica del Tesoro permitiría a una IA predecir tendencias financieras con un grado de precisión inalcanzable para los competidores, influenciando inversiones y políticas fiscales.
  • Infraestructura y urbanismo: Datos sobre patrones de uso de infraestructura, tiempos de respuesta a emergencias y mantenimiento de sistemas urbanos podrían permitir a una empresa privada desarrollar modelos de “ciudades inteligentes” de los que los gobiernos dependerían completamente.

El acceso exclusivo a esta información significaría un dominio absoluto sobre la toma de decisiones estratégicas a nivel nacional, permitiendo a una empresa privada moldear industrias enteras.

Un Riesgo para la Democracia

El riesgo de que una compañía con intereses políticos obtenga acceso sin restricciones a datos federales no puede ser subestimado. Aunque los datos personales pudieran ser anonimizados, el análisis de patrones en millones de registros gubernamentales podría facilitar una manipulación sin precedentes de la sociedad, incluyendo procesos electorales.

El acceso exclusivo a esta información crearía una brecha insalvable entre una empresa privada y sus competidores, otorgándole un poder desproporcionado sobre la economía, la política y el bienestar social. En una democracia, la información debe servir al interés público, no convertirse en una herramienta de influencia de un solo actor privado.

Los ciudadanos deben exigir transparencia en el acceso y uso de los datos gubernamentales. Permitir que una entidad privada monopolice esta información podría significar la erosión de las bases democráticas, transformando a la sociedad en sujetos digitales, en lugar de ciudadanos con derechos y autonomía.


 

The post EL ACCESO DE DOGE A BASES DE DATOS FEDERALES GENERA PREOCUPACIONES SOBRE PRIVACIDAD Y USO EN IA appeared first on TecnoFuturo24.

]]>
Google revoluciona la experiencia de usuario con Pixel Sense: la inteligencia artificial que potenciará el Pixel 10 https://tecnofuturo24.com/google-revoluciona-la-experiencia-de-usuario-con-pixel-sense-la-inteligencia-artificial-que-potenciara-el-pixel-10/ Tue, 04 Mar 2025 23:10:18 +0000 https://tecnofuturo24.com/?p=11924 Un nuevo paradigma en inteligencia artificial móvil Google sigue ampliando los límites…

The post Google revoluciona la experiencia de usuario con Pixel Sense: la inteligencia artificial que potenciará el Pixel 10 appeared first on TecnoFuturo24.

]]>
Un nuevo paradigma en inteligencia artificial móvil

Google sigue ampliando los límites de la inteligencia artificial con el desarrollo de Pixel Sense, una innovadora aplicación que promete transformar la experiencia de los usuarios en los dispositivos Pixel 10. Esta nueva funcionalidad, según informaciones reveladas por Android Authority, será una herramienta de IA que analizará el comportamiento del usuario en casi todas las aplicaciones de Google para ofrecer sugerencias contextuales y facilitar la ejecución de tareas.

El desarrollo de Pixel Sense proviene de la evolución de un proyecto anterior conocido como Pixie. Inicialmente, Pixie estaba destinado a integrarse con Google Assistant, pero con el auge de Gemini, la estrategia de Google se ha redefinido para darle prioridad a su ecosistema de inteligencia artificial móvil. Ahora, Pixel Sense podría convertirse en el eje central de la serie Pixel 10, cuyo lanzamiento está previsto para finales de este año.

Pixel Sense: la IA al servicio de la eficiencia

La clave de Pixel Sense radica en su capacidad para recopilar y procesar datos generados en diversas aplicaciones de Google, tales como Calendar, Gmail, Docs, Maps, Keep Notes, Recorder, Wallet y muchas más. Además, tendrá la capacidad de interpretar archivos multimedia, incluyendo capturas de pantalla, de manera similar a la funcionalidad actual de la aplicación Pixel Screenshots.

El objetivo final de Pixel Sense es mejorar la eficiencia del usuario al predecir sus necesidades sin que tenga que solicitarlas explícitamente. De esta manera, la aplicación podrá sugerir contenido, productos o nombres en función del contexto de uso del dispositivo.

Este tipo de inteligencia artificial ya tiene antecedentes en la industria, con Samsung Now Brief como una aproximación similar. No obstante, Pixel Sense parece una propuesta más avanzada, ya que abarcará un mayor número de aplicaciones y ofrecerá una experiencia más personalizada.

Una evolución de Google Now

Hace una década, Google presentó Google Now, un asistente virtual basado en tarjetas informativas que organizaban datos relevantes para el usuario. Pixel Sense podría ser la evolución natural de este concepto, con la ventaja de integrar una inteligencia artificial más avanzada y contextualizada.

Los informes recientes indican que Pixel Sense podrá reconocer patrones de comportamiento en el uso del teléfono, lo que le permitirá ofrecer recomendaciones precisas y anticiparse a las necesidades del usuario. Si bien este enfoque podría generar preocupaciones sobre privacidad, Google asegura que el procesamiento de datos se realizará de manera local en el dispositivo, utilizando el modelo de inteligencia artificial Gemini Nano.

Seguridad y procesamiento local: la apuesta de Google

Uno de los aspectos más destacados de Pixel Sense es que toda la información recopilada se analizará directamente en el dispositivo, sin necesidad de enviarla a servidores en la nube. Esto no solo refuerza la seguridad y privacidad de los usuarios, sino que también permite que la funcionalidad esté disponible sin conexión a Internet.

Google ya ha implementado ciertas capacidades de procesamiento en el dispositivo a través de funciones como resúmenes automáticos en la app de Recorder y Magic Compose para la edición de texto. Pixel Sense expandirá esta capacidad al permitir que más aplicaciones y servicios se beneficien de la inteligencia artificial sin depender de la nube.

Desafíos y expectativas

Si bien la propuesta de Pixel Sense es ambiciosa, aún quedan interrogantes sobre su eficacia real. Samsung, por ejemplo, implementó Now Brief con una filosofía similar, pero los resultados no fueron del todo satisfactorios. La clave estará en cómo Google optimice su inteligencia artificial para ofrecer una experiencia fluida y verdaderamente útil.

Otro punto a considerar es el nivel de adopción por parte de los desarrolladores externos. Actualmente, el SDK de Google AI Edge para la implementación de inteligencia artificial en dispositivos sigue en fase de prueba, lo que podría limitar la expansibilidad de Pixel Sense en aplicaciones de terceros. Sin embargo, si Google logra consolidar esta tecnología, podría redefinir la manera en que los dispositivos móviles interactúan con sus usuarios.

Impacto en la experiencia del usuario

Los usuarios de la serie Pixel 10 podrían beneficiarse significativamente de Pixel Sense si la tecnología cumple con sus promesas. Entre las principales ventajas potenciales se encuentran:

  • Mayor eficiencia en la realización de tareas: Gracias a las sugerencias contextuales, los usuarios podrán completar actividades cotidianas de manera más rápida.
  • Personalización avanzada: La IA aprenderá de las preferencias y hábitos de cada usuario, ofreciendo recomendaciones adaptadas a su estilo de vida.
  • Procesamiento local y mayor privacidad: Al no depender de la nube, la seguridad de los datos personales estará mejor protegida.
  • Interacción intuitiva: La IA podría reducir la necesidad de introducir comandos manualmente, agilizando la navegación y el uso de aplicaciones.

El futuro de la IA en los dispositivos móviles

Pixel Sense podría marcar un antes y un después en la manera en que los usuarios interactúan con sus dispositivos. Si bien el camino hacia una inteligencia artificial verdaderamente eficiente en smartphones aún está en construcción, Google parece estar liderando el camino con una propuesta sólida y centrada en la experiencia del usuario.

A medida que se acerque el lanzamiento de la serie Pixel 10, se espera que Google proporcione más detalles sobre las capacidades de Pixel Sense. Si logra superar los desafíos técnicos y ofrecer una experiencia útil y segura, podría consolidar su liderazgo en el sector de la inteligencia artificial móvil.

 

The post Google revoluciona la experiencia de usuario con Pixel Sense: la inteligencia artificial que potenciará el Pixel 10 appeared first on TecnoFuturo24.

]]>
DeepSeek: Compromiso con la Transparencia y el Código Abierto en el Desarrollo de la Inteligencia Artificial https://tecnofuturo24.com/deepseek-compromiso-con-la-transparencia-y-el-codigo-abierto-en-el-desarrollo-de-la-inteligencia-artificial/ Fri, 21 Feb 2025 18:12:23 +0000 https://tecnofuturo24.com/?p=11689 DeepSeek, la startup emergente en el campo de la inteligencia artificial, se…

The post DeepSeek: Compromiso con la Transparencia y el Código Abierto en el Desarrollo de la Inteligencia Artificial appeared first on TecnoFuturo24.

]]>
DeepSeek, la startup emergente en el campo de la inteligencia artificial, se posiciona como una de las empresas más innovadoras y transparentes del sector tecnológico. Con apenas 20 meses de existencia, esta compañía ha sorprendido a Silicon Valley y al mundo entero gracias a sus modelos de IA de alta sofisticación, y ahora da un paso importante al anunciar la liberación de cinco repositorios de código y datos. Este movimiento, inusual en una industria en la que muchas de las grandes empresas mantienen sus desarrollos en forma privada, refuerza el compromiso de DeepSeek con el código abierto y la colaboración global.


I. Introducción y Contexto

Desde sus inicios, DeepSeek ha demostrado una visión audaz y un enfoque disruptivo en el desarrollo de tecnologías de inteligencia artificial. Surgida a partir de la experiencia en un fondo de cobertura cuantitativo dirigido por su fundador Liang Wenfeng, la empresa ha sabido combinar el rigor analítico con la creatividad tecnológica para crear soluciones capaces de competir en igualdad de condiciones con los grandes actores del sector.

El anuncio de la próxima liberación de sus repositorios se produce en un contexto en el que la transparencia y el acceso abierto se han convertido en valores esenciales para el avance tecnológico. Al poner a disposición del público el código y los conjuntos de datos utilizados en el entrenamiento de sus modelos, DeepSeek invita a desarrolladores e investigadores de todo el mundo a participar activamente en la evolución de sus plataformas y en la mejora continua de las herramientas de IA.


II. Detalles del Anuncio y Alcance de la Iniciativa

DeepSeek tiene previsto liberar cinco repositorios fundamentales, los cuales incluyen:

  • Código Fuente: La implementación de algoritmos y modelos de alta complejidad que han permitido desarrollar sistemas de IA de alto rendimiento, como el aclamado modelo R1.
  • Conjuntos de Datos: Datos cuidadosamente seleccionados y utilizados para entrenar y optimizar los algoritmos, permitiendo una mayor precisión en el procesamiento y análisis de información.
  • Documentación Exhaustiva: Guías detalladas que explican la estructura del código, metodologías de entrenamiento y recomendaciones para la integración y adaptación de la tecnología.
  • Ejemplos Prácticos: Casos de uso y demostraciones que ilustran la aplicación del código en situaciones reales, facilitando el aprendizaje y la puesta en marcha de nuevos proyectos.
  • Actualizaciones Continuas: Un compromiso de DeepSeek para mantener estos repositorios actualizados, implementando parches de seguridad y mejoras basadas en el feedback de la comunidad.

Este anuncio se dio a conocer a través de una publicación en la red social X, en la que DeepSeek aseguró que, a partir de la próxima semana, todos estos recursos estarán disponibles de manera abierta y gratuita para la comunidad tecnológica. La estrategia de la compañía contrasta notablemente con la de otras grandes empresas del sector, que optan por mantener sus desarrollos en entornos cerrados y restringidos.


III. Impacto en la Industria de la Inteligencia Artificial

El movimiento anunciado por DeepSeek tiene el potencial de transformar la dinámica del desarrollo en inteligencia artificial. En un entorno donde la competencia entre gigantes tecnológicos de Estados Unidos, China y otros países es cada vez más intensa, la liberación de estos repositorios se presenta como un factor de cambio que puede incentivar la innovación de manera colaborativa.

Mientras empresas como OpenAI y Anthropic han optado por mantener sus modelos y datos en entornos de acceso restringido, DeepSeek apuesta por una filosofía de apertura total. Este enfoque no solo permite el intercambio de conocimientos y la identificación de mejoras, sino que también contribuye a generar un ecosistema en el que el avance tecnológico se logra a través de la cooperación entre diversos actores.

El acceso abierto al código y a los datos ofrece, además, importantes beneficios para el ámbito académico y de investigación. Centros universitarios y laboratorios de todo el mundo podrán utilizar estos recursos para desarrollar nuevos estudios, validar hipótesis y formar a la próxima generación de expertos en inteligencia artificial.


IV. La Importancia del Código Abierto en la Era Digital

La liberación de recursos tecnológicos por parte de DeepSeek se enmarca en una tendencia global que promueve el acceso abierto y la colaboración. Entre las ventajas del código abierto destacan:

  • Fomento de la Innovación: Al permitir que desarrolladores e investigadores accedan, modifiquen y mejoren el código, se abren nuevas posibilidades para el desarrollo de aplicaciones y soluciones innovadoras.
  • Aceleración del Aprendizaje: La disponibilidad de documentación detallada y ejemplos prácticos facilita la formación de nuevos profesionales y el perfeccionamiento de técnicas en inteligencia artificial.
  • Detección y Solución de Vulnerabilidades: La transparencia en el código permite una revisión constante por parte de la comunidad, lo que favorece la identificación y corrección oportuna de posibles fallos de seguridad.
  • Reducción de Barreras de Entrada: El acceso libre a tecnologías de alto nivel permite que pequeñas empresas, startups y grupos de investigación puedan competir en un mercado tradicionalmente dominado por grandes corporaciones.
  • Creación de Redes Colaborativas: La comunidad de desarrolladores puede interactuar, compartir ideas y trabajar conjuntamente en proyectos que impulsen el avance tecnológico a nivel global.

Esta filosofía de apertura se convierte en un pilar fundamental para el desarrollo sostenible de la tecnología, ya que el intercambio de conocimientos y la colaboración estrecha son clave para superar desafíos complejos y alcanzar nuevos niveles de eficiencia.


V. Implicaciones Globales y Consideraciones de Seguridad

El anuncio de DeepSeek se produce en un contexto de creciente competencia global en el ámbito de la inteligencia artificial. En particular, la rivalidad tecnológica entre Estados Unidos y China ha generado un ambiente en el que la seguridad y la integridad de la información se han convertido en temas de alta relevancia.

Si bien la liberación del código y los datos ofrece múltiples ventajas, también plantea desafíos en términos de protección de la información. DeepSeek es consciente de estas implicaciones y ha implementado diversas medidas para garantizar que la apertura de sus repositorios no comprometa la seguridad ni el uso responsable de la tecnología. Entre estas medidas se destacan:

  • Revisión Continua del Código: Un equipo especializado se encargará de analizar y actualizar el código de forma regular, identificando posibles vulnerabilidades y aplicando soluciones de manera ágil.
  • Control en el Acceso a Datos Sensibles: A pesar de la apertura general, se han establecido protocolos que protegen la información que pueda ser susceptible de un uso indebido.
  • Colaboración con Expertos en Ciberseguridad: DeepSeek ha forjado alianzas estratégicas con consultores y especialistas en seguridad informática para evaluar de forma periódica la integridad de los repositorios.
  • Actualizaciones Periódicas: La empresa se compromete a ofrecer parches y mejoras continuas que aseguren la estabilidad y seguridad del código compartido.

The post DeepSeek: Compromiso con la Transparencia y el Código Abierto en el Desarrollo de la Inteligencia Artificial appeared first on TecnoFuturo24.

]]>
DeepSeek y la preocupación global por la seguridad de datos: Investigación en Corea del Sur y posibles vínculos con ByteDance https://tecnofuturo24.com/deepseek-y-la-preocupacion-global-por-la-seguridad-de-datos-investigacion-en-corea-del-sur-y-posibles-vinculos-con-bytedance/ Thu, 20 Feb 2025 01:07:50 +0000 https://tecnofuturo24.com/?p=11610 En los últimos días, la preocupación por la seguridad de los datos…

The post DeepSeek y la preocupación global por la seguridad de datos: Investigación en Corea del Sur y posibles vínculos con ByteDance appeared first on TecnoFuturo24.

]]>
En los últimos días, la preocupación por la seguridad de los datos personales de los usuarios de aplicaciones de inteligencia artificial ha alcanzado un nuevo nivel con la investigación surcoreana sobre DeepSeek. Según informó la Agencia de Noticias Yonhap, la Comisión de Protección de la Información Personal de Corea del Sur (PIPC) ha confirmado la existencia de comunicación entre DeepSeek y ByteDance, la empresa matriz de TikTok, en China.

DeepSeek y sus implicaciones en el mercado de la IA

DeepSeek es una startup china de inteligencia artificial que ha generado gran revuelo en la industria tecnológica desde enero de este año, cuando presentó un modelo de IA capaz de operar con una eficiencia que redujo considerablemente los costos de entrenamiento en comparación con sus rivales estadounidenses, incluidos OpenAI, creador de ChatGPT. La aparición de esta aplicación provocó una caída significativa en el valor de mercado de muchas compañías tecnológicas.

Desde su lanzamiento, DeepSeek ha sido objeto de controversia, particularmente en lo que respecta a la privacidad de los datos de los usuarios. En febrero, la empresa de ciberseguridad Security Scorecard publicó un informe en el que se alegaba una posible conexión entre DeepSeek y ByteDance, señalando que la aplicación podía estar compartiendo datos de usuario con servidores de ByteDance.

Investigación en Corea del Sur y retiro de DeepSeek de tiendas de aplicaciones

El gobierno surcoreano tomó medidas inmediatas ante las preocupaciones sobre la seguridad de los datos. Durante el fin de semana, Corea del Sur eliminó DeepSeek de las tiendas de aplicaciones de Apple y Google, lo que impidió nuevas descargas en el país. Sin embargo, los usuarios existentes aún pueden acceder a la aplicación a través del navegador web.

La PIPC, el organismo regulador de privacidad de Corea del Sur, reveló que detectó “tráfico generado por transferencias de datos a terceros” y criticó la falta de transparencia en la política de privacidad de DeepSeek. A pesar de haber confirmado la comunicación entre la startup china y ByteDance, la comisión aún no ha determinado qué tipo de información se ha compartido y en qué volumen.

DeepSeek, ByteDance y el riesgo de seguridad de datos

Uno de los aspectos más preocupantes de esta situación es la posibilidad de que los datos de los usuarios sean accedidos por el gobierno chino a través de la Ley de Inteligencia Nacional de China. Dicha legislación permite al gobierno exigir a las empresas locales que entreguen información si se considera relevante para la seguridad nacional.

Mientras algunos expertos argumentan que esta ley también incluye disposiciones para proteger los datos personales y la privacidad de las empresas, la desconfianza sigue siendo un obstáculo clave para muchas naciones al tratar con empresas tecnológicas chinas. En el pasado, preocupaciones similares llevaron a restricciones en el uso de TikTok en dispositivos gubernamentales en países como Australia, Taiwán y Estados Unidos.

Precedentes y reacciones internacionales

Corea del Sur no es el único país que ha tomado medidas contra DeepSeek. En los últimos meses, varios gobiernos han expresado inquietudes sobre la privacidad de los datos en la aplicación. Australia y Taiwán también han implementado restricciones, impidiendo que funcionarios gubernamentales utilicen la aplicación en sus dispositivos de trabajo.

Estados Unidos, por su parte, ha intensificado su escrutinio sobre empresas tecnológicas chinas. A principios de este año, un tribunal estadounidense confirmó la prohibición de TikTok en ciertos dispositivos gubernamentales, aunque la medida está en suspenso hasta el 5 de abril mientras la administración de Donald Trump busca una solución negociada.

El informe de Security Scorecard y los riesgos de privacidad

Security Scorecard, una firma de ciberseguridad con sede en Estados Unidos, publicó un análisis técnico de la aplicación DeepSeek el pasado 10 de febrero. Según este informe, la aplicación presenta “múltiples referencias directas a servicios propiedad de ByteDance”, lo que sugiere una integración profunda con la infraestructura de análisis y monitoreo de rendimiento de la compañía china.

El estudio también reveló que DeepSeek podría estar transmitiendo “metadatos de usuario y comportamiento del dispositivo” a servidores de ByteDance, lo que plantea serias preocupaciones sobre la privacidad de los datos de los usuarios.

Recomendaciones y precauciones para los usuarios

Ante la incertidumbre sobre la protección de datos, la PIPC de Corea del Sur ha recomendado a los usuarios evitar ingresar información personal en la aplicación DeepSeek. Además, ha enfatizado la importancia de ejercer precaución al utilizar cualquier servicio en línea que carezca de transparencia en su política de privacidad.

El caso de DeepSeek y su supuesta conexión con ByteDance refleja una creciente preocupación global sobre el acceso y uso de los datos personales en el ecosistema digital. Con reguladores en varios países tomando medidas para proteger la privacidad de los usuarios, es probable que el escrutinio sobre empresas tecnológicas chinas continúe intensificándose en los próximos meses.

En un mundo donde la inteligencia artificial está ganando un papel protagónico en la tecnología, la seguridad de los datos se ha convertido en un factor clave para la confianza del público en las nuevas plataformas. La investigación en Corea del Sur podría ser solo el principio de una serie de regulaciones más estrictas para garantizar la protección de la información personal en la era digital.

The post DeepSeek y la preocupación global por la seguridad de datos: Investigación en Corea del Sur y posibles vínculos con ByteDance appeared first on TecnoFuturo24.

]]>
Nueva Función de Seguridad de Apple: El iPhone se Reinicia Automáticamente tras 3 Días de Inactividad para Mejorar la Seguridad https://tecnofuturo24.com/nueva-funcion-de-seguridad-de-apple-el-iphone-se-reinicia-automaticamente-tras-3-dias-de-inactividad-para-mejorar-la-seguridad/ https://tecnofuturo24.com/nueva-funcion-de-seguridad-de-apple-el-iphone-se-reinicia-automaticamente-tras-3-dias-de-inactividad-para-mejorar-la-seguridad/?noamp=mobile#respond Thu, 14 Nov 2024 21:18:23 +0000 https://tecnofuturo24.com/?p=9591 Apple presenta una innovadora función de seguridad en iOS 18 que reinicia…

The post Nueva Función de Seguridad de Apple: El iPhone se Reinicia Automáticamente tras 3 Días de Inactividad para Mejorar la Seguridad appeared first on TecnoFuturo24.

]]>
Apple presenta una innovadora función de seguridad en iOS 18 que reinicia los iPhones tras 72 horas de inactividad, complicando el acceso a los datos para hackers y autoridades forenses.

Cupertino, CA – 14 de noviembre de 2024 – Apple, líder mundial en tecnología, ha introducido una nueva y revolucionaria característica de seguridad en su última actualización de software iOS 18: el “reinicio por inactividad”. Esta función, según confirmaron varios investigadores de seguridad, reinicia automáticamente los iPhones si no han sido desbloqueados en un plazo de 72 horas, protegiendo así los datos personales de sus usuarios.

La nueva función ha llamado la atención de expertos en seguridad y ha generado un intenso debate entre las fuerzas del orden y los profesionales forenses. En particular, esta medida podría dificultar significativamente el acceso a dispositivos para realizar investigaciones, un aspecto que las autoridades han criticado en el pasado.

¿Qué es el “reinicio por inactividad” de Apple?

El “reinicio por inactividad” es una función diseñada para fortalecer la seguridad de los datos almacenados en los dispositivos iPhone. La característica bloquea las claves de cifrado del usuario en el chip de enclave seguro, haciendo que incluso si el dispositivo permanece encendido, los intentos de acceso no autorizados sean mucho más difíciles de lograr. Según Jiska Classen, investigadora del Instituto Hasso Plattner, esta función se activa automáticamente después de 72 horas sin que el dispositivo sea desbloqueado.

En un video publicado recientemente, Classen demostró cómo funciona esta nueva característica. El video mostró un iPhone que, después de permanecer sin desbloquearse durante el período de tiempo establecido, se reinició automáticamente. Esto no solo garantiza que los datos estén protegidos, sino que también reduce la vulnerabilidad del dispositivo a herramientas forenses más antiguas y menos costosas que los ladrones podrían intentar utilizar.

Cómo afecta esta función a las fuerzas del orden y a los expertos forenses

Las reacciones de las fuerzas del orden y los expertos en análisis forense han sido mixtas. La semana pasada, 404 Media informó que tanto oficiales de la ley como especialistas forenses se mostraron preocupados porque algunos iPhones se estaban reiniciando de forma inesperada, lo que dificultaba la extracción de datos para investigaciones criminales. Sin embargo, a pesar de los desafíos que representa esta nueva función, los analistas forenses no están completamente bloqueados, ya que aún pueden actuar dentro del período de 72 horas si se coordina rápidamente con analistas profesionales.

Un representante de Magnet Forensics, una empresa especializada en herramientas de extracción de datos para dispositivos móviles, incluidas herramientas para iPhone y Android como GrayKey, confirmó que el temporizador para el “reinicio por inactividad” está configurado para 72 horas.

Los estados de seguridad del iPhone: BFU y AFU

Para comprender mejor el impacto de esta nueva función, es importante analizar los dos estados en los que un iPhone puede encontrarse en términos de seguridad:

  1. Antes del Primer Desbloqueo (BFU): En este estado, todos los datos del iPhone están completamente cifrados y son prácticamente inaccesibles sin el código de acceso del usuario. Es el estado más seguro, ya que ninguna herramienta forense, por avanzada que sea, puede acceder a los datos cifrados sin conocer la contraseña del usuario.
  2. Después del Primer Desbloqueo (AFU): Una vez que un usuario desbloquea su iPhone después de encenderlo, el dispositivo entra en el estado AFU, donde algunos datos quedan temporalmente descifrados en la memoria. Esto permite que ciertas herramientas forenses, aunque no todas, tengan un acceso limitado para extraer información, incluso si el dispositivo vuelve a bloquearse.

Un conocido investigador en seguridad de iPhone, que se identifica como Tihmstar, explicó que estos estados también se conocen coloquialmente como dispositivos “calientes” (AFU) y “fríos” (BFU). Los dispositivos “calientes” son aquellos que han sido desbloqueados al menos una vez y, por tanto, pueden ser más vulnerables. En cambio, los dispositivos “fríos” son mucho más difíciles de comprometer, ya que sus datos no se pueden extraer fácilmente después de un reinicio.

Repercusiones de la nueva medida en la lucha contra el cibercrimen

Apple ha implementado esta medida de seguridad como parte de su compromiso continuo para proteger la privacidad de sus usuarios. Sin embargo, esta nueva función ha provocado críticas por parte de las fuerzas del orden, que ya han tenido enfrentamientos previos con Apple en lo que respecta a la protección de datos en sus dispositivos.

Un ejemplo notorio de esto ocurrió en 2016, cuando el FBI intentó obligar a Apple a crear una puerta trasera para acceder al iPhone de un tirador. Apple se negó, argumentando que comprometer la seguridad de un dispositivo podría poner en riesgo la privacidad de millones de usuarios. Al final, una startup australiana llamada Azimuth Security ayudó al FBI a acceder al teléfono sin la cooperación de Apple.

Impacto para los usuarios comunes y medidas de seguridad mejoradas

Para los usuarios regulares, esta función de “reinicio por inactividad” proporciona una capa adicional de protección en caso de que un iPhone sea robado o perdido. Si un ladrón no puede desbloquear el teléfono en 72 horas, el dispositivo se reiniciará automáticamente, bloqueando aún más su acceso. Incluso con herramientas forenses anticuadas, los datos permanecerán seguros.

Jiska Classen explicó en X (anteriormente Twitter) que esta medida es particularmente eficaz para proteger los dispositivos contra métodos de hackeo menos avanzados que dependen de herramientas forenses antiguas y menos costosas. Aun así, tres días es un período considerable que permite a los expertos en ciberseguridad tomar medidas antes de que el teléfono se reinicie y los datos se bloqueen de nuevo.

Apple y su compromiso continuo con la seguridad

La incorporación del “reinicio por inactividad” en iOS 18 es solo la última de una serie de medidas que Apple ha introducido en los últimos años para reforzar la seguridad de sus dispositivos. Apple ha sido un firme defensor de la privacidad de los datos, incluso cuando esto ha provocado tensiones con las autoridades gubernamentales y las fuerzas del orden.

Desde la implementación de medidas como el “modo de recuperación” hasta la introducción de llaves de seguridad físicas en sus dispositivos más recientes, Apple ha demostrado que prioriza la seguridad del usuario por encima de todo. Estas medidas no solo protegen a los usuarios comunes, sino que también dificultan que los ciberdelincuentes accedan a información personal sensible.

El futuro de la seguridad en los dispositivos móviles

Con la introducción de funciones como el “reinicio por inactividad”, Apple continúa liderando el camino en términos de seguridad móvil. A medida que los ciberdelincuentes se vuelven más sofisticados, las empresas tecnológicas como Apple deben mantenerse un paso adelante, desarrollando tecnologías que protejan a los usuarios y sus datos.

Aunque algunos pueden criticar a Apple por dificultar el trabajo de las fuerzas del orden, la empresa mantiene su compromiso de proteger la privacidad de sus usuarios, argumentando que cualquier debilitamiento en la seguridad podría tener consecuencias peligrosas para todos.

Apple no ha respondido oficialmente a las solicitudes de comentarios sobre esta nueva función. Sin embargo, es evidente que la compañía sigue comprometida en su misión de proteger la privacidad y seguridad de sus usuarios, incluso si esto significa enfrentarse a la oposición de las autoridades gubernamentales.

La introducción del “reinicio por inactividad” en iOS 18 subraya el compromiso continuo de Apple con la privacidad y la seguridad de los usuarios. A pesar de las críticas por parte de las fuerzas del orden, esta nueva función representa un paso adelante en la protección de los datos personales en un mundo digital cada vez más vulnerable. Con la tecnología avanzando a un ritmo acelerado, Apple sigue demostrando que la seguridad de sus usuarios es su máxima prioridad.

 

The post Nueva Función de Seguridad de Apple: El iPhone se Reinicia Automáticamente tras 3 Días de Inactividad para Mejorar la Seguridad appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/nueva-funcion-de-seguridad-de-apple-el-iphone-se-reinicia-automaticamente-tras-3-dias-de-inactividad-para-mejorar-la-seguridad/feed/ 0
National Public Data Admite Fuga de Números de Seguro Social en una Gran Brecha de Datos https://tecnofuturo24.com/national-public-data-admite-fuga-de-numeros-de-seguro-social-en-una-gran-brecha-de-datos/ https://tecnofuturo24.com/national-public-data-admite-fuga-de-numeros-de-seguro-social-en-una-gran-brecha-de-datos/?noamp=mobile#respond Sat, 17 Aug 2024 00:22:37 +0000 https://tecnofuturo24.com/?p=7577 National Public Data (NPD), una empresa que se especializa en la reventa…

The post National Public Data Admite Fuga de Números de Seguro Social en una Gran Brecha de Datos appeared first on TecnoFuturo24.

]]>
National Public Data (NPD), una empresa que se especializa en la reventa de datos personales para verificaciones de antecedentes, ha confirmado recientemente una grave brecha de datos. Esta fuga ha expuesto información crítica, incluidos nombres, números de Seguro Social y direcciones físicas, lo que ha generado gran preocupación entre los usuarios afectados. La confirmación llega meses después de que hackers comenzaran a publicar datos robados en la dark web.

Según Bleeping Computer, foros en la dark web han estado compartiendo y publicitando datos robados de NPD durante varios meses. La empresa finalmente ha hecho pública una página sobre Incidentes de Seguridad, donde ha confirmado la brecha pero ha dejado muchas preguntas sin responder. El incidente aparentemente involucra a un actor malintencionado externo que intentó hackear los sistemas de NPD a finales de diciembre de 2023. La fuga de datos podría haber comenzado en abril de 2024 y continuado durante el verano del mismo año.

El hackeo ha afectado a un número aún desconocido de personas, con una estimación de 2.9 mil millones de filas de datos comprometidas. Un análisis realizado por Troy Hunt, operador de Have I Been Pwned, reveló inconsistencias en la forma en que los datos están vinculados a personas específicas. NPD ha cooperado con las autoridades y los investigadores gubernamentales para revisar los registros potencialmente afectados. A pesar de estos esfuerzos, la empresa no ha proporcionado detalles sobre cuántas personas han sido afectadas, ni ha ofrecido compensación o canales de contacto directo para más información.

La brecha de datos en National Public Data subraya la creciente amenaza de seguridad en el manejo de información personal. Aunque la empresa ha tomado medidas para colaborar con las autoridades y revisar los datos comprometidos, la falta de información clara sobre el alcance de la brecha y las medidas para ayudar a los afectados deja muchas preocupaciones sin resolver. Los usuarios deben estar atentos a sus informes de crédito y seguir las recomendaciones de seguridad para proteger su información personal. La situación resalta la importancia de una gestión rigurosa de los datos personales y la necesidad de respuestas rápidas y claras ante incidentes de esta magnitud.

The post National Public Data Admite Fuga de Números de Seguro Social en una Gran Brecha de Datos appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/national-public-data-admite-fuga-de-numeros-de-seguro-social-en-una-gran-brecha-de-datos/feed/ 0
Así es como el modelo de IA de Apple intenta mantener privada tu información https://tecnofuturo24.com/asi-es-como-el-modelo-de-ia-de-apple-intenta-mantener-privada-tu-informacion/ https://tecnofuturo24.com/asi-es-como-el-modelo-de-ia-de-apple-intenta-mantener-privada-tu-informacion/?noamp=mobile#respond Thu, 13 Jun 2024 19:47:07 +0000 https://tecnofuturo24.com/?p=5543 En la WWDC del lunes, Apple reveló Apple Intelligence, una suite de…

The post Así es como el modelo de IA de Apple intenta mantener privada tu información appeared first on TecnoFuturo24.

]]>
En la WWDC del lunes, Apple reveló Apple Intelligence, una suite de características que trae herramientas de IA generativa como reescribir borradores de correos electrónicos, resumir notificaciones y crear emojis personalizados a los iPhone, iPad y Mac. Apple dedicó una parte significativa de su presentación a explicar cuán útiles serán estas herramientas y una porción casi igual de tiempo a asegurar a los clientes cuán privada mantendrá su información el nuevo sistema de IA.

Privacidad en el enfoque dual de la IA generativa

La privacidad es posible gracias a un enfoque dual en la IA generativa que Apple comenzó a explicar en su keynote y ofreció más detalles en documentos y presentaciones posteriores. Apple Intelligence se construye con una filosofía en el dispositivo que puede realizar las tareas comunes de IA que los usuarios desean rápidamente, como transcribir llamadas y organizar sus horarios. Sin embargo, Apple Intelligence también puede conectarse a servidores en la nube para solicitudes de IA más complejas que incluyen el envío de datos de contexto personal, y asegurar que ambos tipos de procesos entreguen buenos resultados mientras mantienen la privacidad de tus datos es donde Apple enfocó sus esfuerzos.

Modelos de IA caseros para mayor seguridad

La gran noticia es que Apple está utilizando sus propios modelos de IA caseros para Apple Intelligence. Apple señala que no entrena sus modelos con datos privados o interacciones de usuarios, lo cual es único en comparación con otras compañías. En su lugar, Apple usa materiales licenciados y datos disponibles públicamente en línea que son recopilados por el rastreador web Applebot de la compañía. Los editores deben optar por no participar si no desean que sus datos sean recopilados por Apple, lo cual suena similar a las políticas de Google y OpenAI. Apple también dice que omite la alimentación de números de seguro social y tarjetas de crédito que flotan en línea, e ignora “profanidades y otros contenidos de baja calidad”.

Integración y optimización de modelos

Un gran punto de venta para Apple Intelligence es su profunda integración en los sistemas operativos y aplicaciones de Apple, así como cómo la compañía optimiza sus modelos para eficiencia energética y tamaño para encajar en los iPhones. Mantener las solicitudes de IA locales es clave para calmar muchas preocupaciones sobre privacidad, pero la compensación es usar modelos más pequeños y menos capaces en el dispositivo.

Para hacer útiles esos modelos locales, Apple emplea ajustes finos, que entrenan a los modelos para mejorar en tareas específicas como corregir pruebas o resumir textos. Las habilidades se colocan en forma de “adaptadores”, que pueden superponerse al modelo base y cambiarse según la tarea en cuestión, similar a aplicar atributos de mejora para tu personaje en un juego de rol. De manera similar, el modelo de difusión de Apple para Image Playground y Genmoji también usa adaptadores para obtener diferentes estilos de arte, como ilustración o animación (lo que hace que personas y mascotas se vean como personajes de Pixar de bajo presupuesto).

Apple dice que ha optimizado sus modelos para acelerar el tiempo entre el envío de una solicitud y la entrega de una respuesta, y utiliza técnicas como “decodificación especulativa”, “poda de contexto” y “atención de consulta grupal” para aprovechar el motor neuronal de Apple Silicon. Los fabricantes de chips solo recientemente han comenzado a agregar núcleos neuronales (NPU) a los circuitos, lo que ayuda a aliviar el ancho de banda de la CPU y la GPU al procesar algoritmos de aprendizaje automático y IA. Es parte de la razón por la cual solo los Mac y iPad con chips de la serie M y solo el iPhone 15 Pro y Pro Max admiten Apple Intelligence.

Comparación con la competencia

El enfoque es similar a lo que estamos viendo en el mundo de Windows: Intel lanzó su arquitectura Meteor Lake de 14ª generación con un chip con NPU, y los nuevos chips Snapdragon X de Qualcomm, construidos para los PCs Copilot Plus de Microsoft, también los tienen. Como resultado, muchas características de IA en Windows están limitadas a nuevos dispositivos que pueden realizar trabajos localmente en estos chips.

Resultados de Apple Intelligence

Según la investigación de Apple, de 750 respuestas probadas para resumen de texto, la IA en el dispositivo de Apple (con el adaptador adecuado) tuvo resultados más atractivos para los humanos que el modelo Phi-3-mini de Microsoft. Parece un gran logro, pero la mayoría de los servicios de chatbots de hoy en día usan modelos mucho más grandes en la nube para lograr mejores resultados, y ahí es donde Apple está tratando de caminar una línea cuidadosa sobre la privacidad. Para que Apple pueda competir con modelos más grandes, está elaborando un proceso fluido que envía solicitudes complejas a servidores en la nube mientras intenta demostrar a los usuarios que sus datos siguen siendo privados.

Computación en la Nube Privada (PCC)

Si una solicitud de usuario necesita un modelo de IA más capaz, Apple envía la solicitud a sus servidores de Computación en la Nube Privada (PCC). PCC funciona en su propio sistema operativo basado en “fundamentos de iOS”, y tiene su propio stack de aprendizaje automático que impulsa Apple Intelligence. Según Apple, PCC tiene su propio arranque seguro y Enclave Seguro para mantener claves de cifrado que solo funcionan con el dispositivo solicitante, y el Monitor de Ejecución Confiable asegura que solo el código firmado y verificado se ejecute.

Apple dice que el dispositivo del usuario crea una conexión cifrada de extremo a extremo con un clúster de PCC antes de enviar la solicitud. Apple dice que no puede acceder a los datos en el PCC ya que está despojado de herramientas de gestión de servidores, por lo que no hay acceso remoto. Apple tampoco da al PCC ningún almacenamiento persistente, por lo que las solicitudes y posibles datos de contexto personal extraídos del Índice Semántico de Apple Intelligence aparentemente se eliminan en la nube posteriormente.

Preguntas abiertas sobre la privacidad

Una de las grandes preguntas abiertas es exactamente qué tipos de solicitudes irán a la nube. Al procesar una solicitud, Apple Intelligence tiene un paso llamado Orquestación, donde decide si proceder en el dispositivo o usar PCC. Aún no sabemos qué constituye exactamente una solicitud lo suficientemente compleja como para desencadenar un proceso en la nube, y probablemente no lo sabremos hasta que Apple Intelligence esté disponible en otoño.

Hay otra forma en la que Apple está lidiando con las preocupaciones de privacidad: haciendo que sea problema de alguien más. El renovado Siri de Apple puede enviar algunas consultas a ChatGPT en la nube, pero solo con permiso después de que hagas algunas preguntas realmente difíciles. Ese proceso transfiere la cuestión de la privacidad a las manos de OpenAI, que tiene sus propias políticas, y al usuario, que debe aceptar externalizar su consulta. En una entrevista con Marques Brownlee, el CEO de Apple, Tim Cook, dijo que ChatGPT sería llamado para solicitudes que involucren “conocimiento del mundo” que están “fuera del dominio del contexto personal”.

Compromiso con la privacidad

El enfoque dividido de Apple entre lo local y la nube para Apple Intelligence no es totalmente novedoso. Google tiene un modelo Gemini Nano que puede trabajar localmente en dispositivos Android junto con sus modelos Pro y Flash que procesan en la nube. Mientras tanto, los PCs Microsoft Copilot Plus pueden procesar solicitudes de IA localmente mientras la compañía sigue apoyándose en su acuerdo con OpenAI y también construye su propio modelo interno MAI-1. Sin embargo, ninguno de los rivales de Apple ha enfatizado tanto sus compromisos de privacidad en comparación.

Por supuesto, todo esto se ve genial en demostraciones escenificadas y documentos editados. Sin embargo, la prueba real será a finales de este año cuando veamos Apple Intelligence en acción. Tendremos que ver si Apple puede lograr ese equilibrio de experiencias de IA de calidad y privacidad, y continuar desarrollándolo en los próximos años.

The post Así es como el modelo de IA de Apple intenta mantener privada tu información appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/asi-es-como-el-modelo-de-ia-de-apple-intenta-mantener-privada-tu-informacion/feed/ 0