privacidad de datos Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/privacidad-de-datos/ El futuro de la tecnología en un solo lugar. Tech News. Wed, 07 May 2025 13:44:44 +0000 en-US hourly 1 https://wordpress.org/?v=6.9.4 https://tecnofuturo24.com/wp-content/uploads/2024/01/cropped-cropped-TecnoFuturo24Box-32x32.jpeg privacidad de datos Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/privacidad-de-datos/ 32 32 Nueva ley impulsada en EE. UU. podría cambiar el panorama de las tiendas de aplicaciones: Apple y Google bajo la lupa https://tecnofuturo24.com/nueva-ley-impulsada-en-ee-uu-podria-cambiar-el-panorama-de-las-tiendas-de-aplicaciones-apple-y-google-bajo-la-lupa/ Wed, 07 May 2025 13:44:44 +0000 https://tecnofuturo24.com/?p=13510 En un giro significativo para el mercado de aplicaciones móviles, la representante…

The post Nueva ley impulsada en EE. UU. podría cambiar el panorama de las tiendas de aplicaciones: Apple y Google bajo la lupa appeared first on TecnoFuturo24.

]]>

En un giro significativo para el mercado de aplicaciones móviles, la representante Kat Cammack (R-FL) presentó el martes 6 de mayo de 2025 un nuevo proyecto de ley que podría transformar radicalmente el funcionamiento de las tiendas de aplicaciones, específicamente en gigantes como Apple y Google. La propuesta, conocida como la App Store Freedom Act, busca promover una mayor competencia y proteger tanto a los consumidores como a los desarrolladores de aplicaciones en el dinámico y altamente competitivo mercado de aplicaciones móviles.

Contexto y objetivos de la ley

El App Store Freedom Act no menciona directamente a Apple o Google, pero está diseñado para regular las prácticas de “grandes operadores de tiendas de aplicaciones”, una categoría que incluye a aquellos servicios de distribución de aplicaciones con más de 100 millones de usuarios solo en los Estados Unidos. El enfoque principal de la ley es eliminar las barreras que actualmente impiden a los desarrolladores de aplicaciones ofrecer soluciones de pago externas y operar fuera de las restricciones de las plataformas dominantes.

De acuerdo con la ley propuesta, las grandes tiendas de aplicaciones como Apple deberán permitir a los usuarios instalar tiendas de aplicaciones de terceros y configurarlas como predeterminadas en sus dispositivos. Esta disposición apunta a fomentar la competencia, ofreciendo una alternativa a los usuarios que hoy están limitados a las tiendas oficiales de Apple y Google para sus compras digitales y la instalación de apps.

Implicaciones de la nueva ley para los desarrolladores y consumidores

Además de la obligatoriedad de permitir tiendas de aplicaciones alternativas, el App Store Freedom Act exige que tanto Apple como Google ofrezcan a los desarrolladores un acceso equitativo a interfaces, herramientas y características de desarrollo sin costes adicionales ni discriminación. Esta medida pretende romper con las actuales restricciones que muchas veces colocan a los desarrolladores en una posición desventajosa, forzándolos a utilizar los sistemas de pago y las herramientas proporcionadas por estas plataformas dominantes, sin ofrecerles la posibilidad de ofrecer soluciones propias que pueden ser más económicas o funcionales.

La ley también contempla que los usuarios tengan la posibilidad de eliminar o esconder las aplicaciones preinstaladas en sus dispositivos, una característica que actualmente se encuentra limitada en muchos dispositivos de Apple y Android. Este movimiento es visto como un paso hacia una mayor flexibilidad y control para los consumidores, que ganan autonomía sobre el software que desean tener en sus dispositivos móviles.

Si bien la ley se encuentra en sus primeras etapas, ya se ha anticipado que cualquier violación de sus disposiciones podría llevar a penalizaciones severas, incluidas sanciones por parte de la Comisión Federal de Comercio (FTC) y multas civiles que podrían llegar hasta un millón de dólares por cada infracción cometida.

Contexto internacional y precedentes en la UE

El App Store Freedom Act se presenta como una respuesta a una serie de desarrollos regulatorios recientes, particularmente en la Unión Europea, donde se ha comenzado a aplicar legislación similar que obliga a Apple y a otras grandes plataformas a permitir a los usuarios descargar y establecer como predeterminada tiendas de aplicaciones de terceros. En este contexto, Apple ya ha comenzado a permitir a los desarrolladores vincularse a sistemas de pago externos, en un esfuerzo por cumplir con las normativas del caso Epic v. Apple.

De manera similar, Google ha tenido que realizar ajustes a sus prácticas, incluyendo la implementación de una pantalla de elección de navegador cuando los usuarios configuran su dispositivo por primera vez, para alinearse con las regulaciones de la Unión Europea.

Competencia, innovación y el futuro de las tiendas de aplicaciones

La propuesta de Cammack se fundamenta en la creencia de que las tiendas de aplicaciones dominantes, como las de Apple y Google, han controlado el acceso de los consumidores a sus datos y forzado a los usuarios a utilizar sus propios servicios de pago, en lugar de permitir a los desarrolladores ofrecer alternativas dentro de sus propias aplicaciones. Según la representante Cammack, este control centralizado ha dado lugar a precios más altos, una selección limitada para los consumidores y prácticas anticompetitivas que han sofocado la innovación.

Al desmantelar estas barreras, la ley busca abrir la puerta a una mayor variedad de aplicaciones y servicios, ofreciendo a los consumidores la oportunidad de elegir entre opciones más diversas y competitivas. Además, se espera que los desarrolladores puedan aprovechar una mayor libertad para implementar sus propios sistemas de pago y reducir las tarifas que actualmente deben pagar a las plataformas de las grandes tiendas de aplicaciones.

Reacciones de la industria

La iniciativa ha generado un amplio espectro de reacciones entre los actores clave del sector. Si bien algunos desarrolladores de aplicaciones aplauden la propuesta, al ver en ella una oportunidad para reducir los costos asociados con las tiendas de aplicaciones tradicionales, otros se muestran cautelosos, temiendo que los cambios puedan generar nuevas formas de competencia que afecten negativamente la calidad y seguridad de las aplicaciones disponibles.

Por otro lado, las grandes plataformas como Apple y Google ya han expresado sus preocupaciones sobre los posibles efectos de la ley. Ambas empresas argumentan que permitir tiendas de aplicaciones de terceros podría generar problemas de seguridad, privacidad y calidad, al no poder garantizar la misma regulación y control que tienen sobre sus propias tiendas.

El camino hacia la implementación

Aunque aún queda un largo camino legislativo por recorrer, la propuesta de la representante Cammack se está posicionando como un punto de inflexión en la discusión sobre el futuro de las tiendas de aplicaciones en los dispositivos móviles. Si el App Store Freedom Act es aprobado, podría tener implicaciones profundas no solo para las tiendas de aplicaciones en los Estados Unidos, sino también para el panorama global, especialmente en un contexto donde las regulaciones de la UE ya están marcando el ritmo.

The post Nueva ley impulsada en EE. UU. podría cambiar el panorama de las tiendas de aplicaciones: Apple y Google bajo la lupa appeared first on TecnoFuturo24.

]]>
Google Refuerza la Seguridad en Android con Reinicio Automático tras Tres Días de Inactividad https://tecnofuturo24.com/google-refuerza-la-seguridad-en-android-con-reinicio-automatico-tras-tres-dias-de-inactividad/ Wed, 16 Apr 2025 08:12:40 +0000 https://tecnofuturo24.com/?p=12929 La seguridad digital es un tema que gana cada vez más protagonismo…

The post Google Refuerza la Seguridad en Android con Reinicio Automático tras Tres Días de Inactividad appeared first on TecnoFuturo24.

]]>
La seguridad digital es un tema que gana cada vez más protagonismo en el mundo actual, especialmente en un entorno donde los dispositivos móviles almacenan desde información bancaria y fotografías personales hasta correos electrónicos laborales y credenciales de acceso a plataformas digitales. Ante este contexto, Google ha dado un paso firme en la protección de la información de sus usuarios al incorporar una nueva función en su sistema operativo Android: el reinicio automático de los dispositivos tras tres días consecutivos de inactividad con la pantalla bloqueada.

Una Función Pensada para Fortalecer la Privacidad

El anuncio se conoció tras el despliegue de una actualización silenciosa en los Google Play Services, la plataforma central que suministra herramientas esenciales de funcionamiento tanto para Android como para las aplicaciones instaladas en el dispositivo. En esta actualización, bajo el apartado “Seguridad y Privacidad”, los usuarios ahora pueden encontrar una nueva función que indica que “el dispositivo se reiniciará automáticamente si permanece bloqueado durante tres días consecutivos”.

El objetivo de esta función es claro: evitar que terceros, especialmente actores no autorizados, puedan obtener acceso a los datos almacenados en el teléfono mediante métodos forenses o técnicas de fuerza bruta que suelen aplicarse en dispositivos que han sido sustraídos, extraviados o incautados.

¿Cómo Funciona esta Nueva Medida de Seguridad?

El principio de esta función se basa en uno de los pilares más robustos de la seguridad de Android: el cifrado de datos. Todos los smartphones Android modernos encriptan los datos almacenados en la memoria interna mediante claves asociadas al código de desbloqueo que el usuario introduce, ya sea un PIN, contraseña o patrón.

Cuando un dispositivo Android está apagado o ha sido reiniciado, sus datos se encuentran en un estado denominado Before First Unlock (BFU), es decir, “Antes del Primer Desbloqueo”. En este modo, toda la información está completamente cifrada y no es posible acceder a ella sin el código de desbloqueo original.

Esta situación cambia una vez que el usuario introduce la clave de desbloqueo tras encender el dispositivo. En ese momento, el teléfono ingresa al estado After First Unlock (AFU) o “Después del Primer Desbloqueo”, en el cual parte de la información se mantiene descifrada temporalmente mientras el dispositivo permanece encendido y activo, facilitando así que ciertas aplicaciones accedan a sus datos de manera rápida.

Precisamente, es en el estado AFU donde la mayoría de las herramientas forenses utilizadas por agencias de seguridad y actores maliciosos logran extraer datos mediante técnicas de fuerza bruta o explotación de vulnerabilidades de software.

Con la nueva función de reinicio automático, si el dispositivo permanece tres días consecutivos bloqueado e inactivo, Android forzará un reinicio, devolviendo el terminal al estado BFU, en el que la información permanece totalmente cifrada y, por ende, protegida de intentos de acceso no autorizados.

Inspiración y Tendencias en la Industria

La decisión de Google de implementar esta función no es un movimiento aislado en la industria tecnológica. A finales de 2024, Apple introdujo una función similar en iOS 18.1, la cual realiza un reinicio automático de los dispositivos que llevan cuatro días consecutivos sin ser desbloqueados. El enfoque de Google es aún más agresivo, reduciendo este margen a solo tres días, lo que eleva el nivel de protección en caso de robo, pérdida o confiscación.

Además, algunos sistemas operativos basados en Android y centrados en la privacidad, como GrapheneOS, ya habían adoptado soluciones parecidas, con reinicios automáticos configurados tras lapsos aún menores, incluso de apenas 18 horas sin interacción del usuario.

El patrón es claro: las principales compañías tecnológicas están implementando medidas activas que limitan las oportunidades de que los datos de sus usuarios queden expuestos si sus dispositivos caen en las manos equivocadas.

Beneficios para los Usuarios

El valor de esta función reside en su simplicidad y efectividad. Los usuarios no necesitan realizar ninguna configuración manual, ya que el sistema gestiona esta medida de seguridad de forma automática. Entre los principales beneficios destacan:

  • Protección ante robos o extravíos: En caso de que un dispositivo sea robado y permanezca bloqueado, el atacante contará con una ventana de solo tres días para intentar acceder antes de que el dispositivo se reinicie y encripte completamente los datos de nuevo.

  • Mitigación contra herramientas forenses: Herramientas profesionales de extracción de datos, como las fabricadas por empresas como Cellebrite y Magnet Forensics, dependen en gran medida de que el dispositivo permanezca en estado AFU. Este reinicio automático bloquea esa posibilidad y garantiza que los datos permanezcan inaccesibles sin la contraseña.

  • Fortalecimiento de la privacidad: Incluso en situaciones de incautación de dispositivos por parte de agencias gubernamentales, el reinicio forzado incrementa exponencialmente las barreras técnicas para acceder a la información privada del usuario.

Seguridad en la Era de la Ciberinteligencia

La evolución de las técnicas de espionaje digital y de la ingeniería inversa ha obligado a las grandes tecnológicas a reforzar continuamente sus protocolos de seguridad. En este contexto, las técnicas tradicionales de protección —como la autenticación mediante PIN o biometría— han demostrado ser vulnerables si el dispositivo permanece encendido y desbloqueado o si se explotan debilidades en el software.

El reinicio automático no solo cierra esta brecha, sino que actúa como un mecanismo preventivo que fortalece los sistemas de cifrado al asegurar que ningún atacante pueda aprovechar la condición de “desbloqueo previo” durante largos períodos de tiempo.

Implicaciones Legales y Éticas

La introducción de esta función también tiene ramificaciones en el ámbito legal. En muchos países, las fuerzas de seguridad utilizan dispositivos de análisis forense para acceder a la información contenida en teléfonos móviles incautados. Si bien esta práctica puede estar amparada por órdenes judiciales, el debate sobre la privacidad y el derecho a la protección de datos personales continúa siendo objeto de discusión global.

Esta nueva función de Android refuerza la posición de las compañías tecnológicas que, en defensa de la privacidad de sus usuarios, diseñan sus productos de manera que ni siquiera ellas puedan acceder a la información cifrada sin el consentimiento o la participación directa del titular.

Limitaciones y Consideraciones

Aunque esta función ofrece un salto significativo en materia de seguridad, es importante destacar algunas limitaciones:

  • El reinicio automático solo ocurre si el dispositivo permanece bloqueado e inactivo durante tres días consecutivos. Si el usuario interactúa con el teléfono (por ejemplo, conectándolo a una fuente de carga o recibiendo notificaciones que muevan sensores o la pantalla), este contador puede reiniciarse.

  • En algunos casos, si el dispositivo ha sido manipulado físicamente o se han aplicado técnicas avanzadas de ataque a nivel de hardware, el reinicio podría no ser suficiente para evitar ciertos tipos de extracción de datos.

  • Esta función no es aplicable a todos los dispositivos Android de forma universal. Por el momento, Google ha priorizado su activación en teléfonos y tabletas que utilizan versiones recientes del sistema operativo, mientras que dispositivos más antiguos o algunos modelos específicos podrían no recibir esta función de manera inmediata.

Actualización y Disponibilidad

La función de reinicio automático se encuentra disponible en la última versión de Google Play Services. Los usuarios que deseen verificar si ya cuentan con esta medida activada pueden dirigirse al menú:

Configuración > Seguridad y privacidad > Actualización de los Servicios de Google Play

Allí podrán comprobar si la actualización correspondiente ha sido instalada y si su dispositivo es compatible con esta nueva funcionalidad.

Además, Google ha reiterado que las actualizaciones de seguridad y las funciones de protección de datos seguirán recibiendo mejoras de manera progresiva, como parte de su estrategia de refuerzo en seguridad digital para todos los dispositivos Android.

Recomendaciones para Maximizar la Seguridad

A pesar de esta valiosa función, es recomendable complementar la protección de los dispositivos Android siguiendo buenas prácticas de ciberseguridad:

  1. Establecer contraseñas robustas: Utilizar combinaciones alfanuméricas complejas para evitar que sean descubiertas mediante ataques de fuerza bruta.

  2. Desactivar las opciones de depuración USB: Esta configuración puede ser explotada en intentos de extracción de datos físicos si no se encuentra desactivada.

  3. Mantener actualizado el sistema operativo y las aplicaciones: Las actualizaciones suelen incluir parches de seguridad para vulnerabilidades descubiertas recientemente.

  4. Configurar el bloqueo remoto: Servicios como “Encontrar mi dispositivo” de Google permiten bloquear y borrar de forma remota la información de un dispositivo extraviado o robado.

  5. Evitar el almacenamiento innecesario de datos sensibles en el teléfono: Siempre que sea posible, utilizar servicios en la nube con cifrado de extremo a extremo.

El Futuro de la Seguridad en Android

La introducción de esta medida marca un precedente dentro del ecosistema Android, que cada vez pone más foco en proteger la privacidad de sus usuarios ante amenazas tanto físicas como digitales.

El desarrollo constante de nuevas funciones de seguridad se ha convertido en una prioridad para Google, especialmente en un mercado global donde el número de dispositivos Android supera los 3.5 mil millones de unidades activas.

Si bien esta función puede parecer sencilla en su planteamiento, su impacto es significativo y subraya el compromiso de la compañía por blindar los datos personales frente a situaciones adversas.

The post Google Refuerza la Seguridad en Android con Reinicio Automático tras Tres Días de Inactividad appeared first on TecnoFuturo24.

]]>
Manus AI: El Avance en la Colaboración Humano-Máquina que Despierta Controversia https://tecnofuturo24.com/manus-ai-el-avance-en-la-colaboracion-humano-maquina-que-despierta-controversia/ Mon, 10 Mar 2025 17:02:15 +0000 https://tecnofuturo24.com/?p=12088 En los últimos días, la inteligencia artificial ha dado un paso significativo…

The post Manus AI: El Avance en la Colaboración Humano-Máquina que Despierta Controversia appeared first on TecnoFuturo24.

]]>
En los últimos días, la inteligencia artificial ha dado un paso significativo hacia adelante con la presentación de un agente denominado Manus, el cual ha generado gran interés en la comunidad de expertos y ha encendido una serie de debates sobre sus implicaciones, tanto en términos de capacidades como de privacidad y seguridad. Manus, como se denomina a este agente, promete ser mucho más que un simple asistente virtual o chatbot; se describe como un “agente autónomo general que convierte tus pensamientos en acciones”. Esta innovación, cuyo nombre proviene del latín que significa “mano”, plantea un nuevo paradigma en la colaboración humano-máquina y se perfila como un posible vistazo al futuro de la inteligencia artificial general (AGI por sus siglas en inglés).

Un nuevo paradigma de colaboración humano-máquina

Manus AI ha sido promocionado por sus creadores como un agente que va más allá de las capacidades tradicionales de los asistentes virtuales que conocemos hoy en día. Según el video publicado por su creador, Manus es “un agente completamente autónomo”, un avance que, en palabras del científico jefe Yichao “Peak” Ji, podría marcar “el siguiente paradigma de colaboración entre humanos y máquinas”. En el demo que se presenta en el video, se muestra a Manus realizando tres tareas separadas de manera simultánea y eficiente: ordenar currículums, identificar correlaciones entre distintas acciones de la bolsa y buscar propiedades inmobiliarias en Nueva York, evaluando las escuelas cercanas y estimando cuánto podría permitirse pagar el usuario por una vivienda.

El aspecto más novedoso de Manus es su capacidad para trabajar de forma autónoma en la nube, lo que permite a los usuarios cerrar su ordenador portátil y dejar que el sistema siga ejecutando tareas en segundo plano sin necesidad de intervención continua. Esta capacidad, que simplifica enormemente la interacción con el usuario, despierta tanto entusiasmo como inquietud en varios sectores. Algunos aplauden el potencial de Manus para mejorar la productividad y optimizar tareas cotidianas, mientras que otros se preocupan por las implicaciones que el control remoto y la autonomía del sistema podrían tener sobre la privacidad y la seguridad de los datos.

El auge de la inteligencia artificial en China: ¿una ventaja estratégica?

El lanzamiento de Manus no ha pasado desapercibido, y su origen en China no ha hecho sino aumentar la preocupación de algunos observadores, especialmente en los Estados Unidos, que temen que China esté avanzando a pasos agigantados en la carrera por la supremacía en inteligencia artificial. El hecho de que Manus esté desarrollado por un equipo con sede en China, aunque con una entidad legal registrada en Singapur, ha generado interrogantes sobre el control y la protección de los datos generados y procesados por el sistema.

Uno de los temas más debatidos es la ubicación de los servidores de Manus y si existe alguna transferencia de datos hacia China, lo que podría tener implicaciones de seguridad. Luiza Jarovsky, experta en privacidad y protección de datos, señala en un boletín que se deben responder cuestiones clave sobre la empresa, como la ubicación de los servidores y su posible vinculación corporativa con China, ya que el manejo de información sensible siempre es un área de gran preocupación en el desarrollo de tecnologías de esta magnitud.

En este contexto, algunos expertos sugieren que la creación de Manus es un reflejo de cómo las naciones están invirtiendo recursos en el desarrollo de tecnologías autónomas avanzadas, lo que podría cambiar la dinámica global en torno a la inteligencia artificial. La capacidad de China para crear avances como Manus podría situarla como líder en el campo de la inteligencia artificial autónoma, algo que ha generado tanto admiración como inquietud a nivel internacional.

¿Qué piensan los primeros usuarios de Manus?

A pesar del entusiasmo generalizado por las capacidades de Manus, no todos los comentarios han sido positivos. Algunos primeros probadores, como Kyle Wiggers de TechCrunch, han expresado críticas hacia el desempeño de Manus, destacando que en algunas de las tareas mostradas en la demostración, el agente no cumplió con las expectativas generadas. Wiggers señaló que, aunque Manus tiene un gran potencial, su rendimiento aún no es lo suficientemente sólido para llevar a cabo tareas complejas de manera eficiente.

Este tipo de retroalimentación es común en el desarrollo de tecnologías emergentes, pero también refleja las altas expectativas que se han creado en torno a los agentes autónomos. Manus, a pesar de ser un avance significativo, todavía está en una fase de prueba, lo que significa que su rendimiento podría mejorar a medida que se perfeccionan sus algoritmos y capacidades.

El futuro de los agentes autónomos en inteligencia artificial: retos y oportunidades

La llegada de Manus se produce en un momento crucial para la evolución de la inteligencia artificial, cuando el concepto de agentes autónomos está ganando cada vez más relevancia. Si bien Manus es solo uno de los muchos proyectos que buscan mejorar la interacción entre humanos y máquinas, su enfoque autónomo es uno de los más ambiciosos en términos de lo que pretende lograr. No se trata solo de realizar tareas específicas, sino de ofrecer un nivel de autonomía que permita a los usuarios delegar acciones de manera más eficiente, sin necesidad de supervisión constante.

Sin embargo, como advierten los investigadores en un artículo reciente publicado en Hugging Face, el desarrollo de agentes completamente autónomos plantea varios riesgos. El documento subraya que, aunque la autonomía puede tener beneficios genuinos en contextos específicos, también existe el peligro de que los sistemas autónomos cometan errores catastróficos debido a fallos triviales. Los autores del estudio defienden que, por muy avanzados que sean los sistemas autónomos, el juicio humano y la comprensión contextual seguirán siendo esenciales, especialmente en decisiones de alto riesgo.

Los expertos también sugieren que, si bien los agentes autónomos como Manus pueden transformar la forma en que interactuamos con la tecnología, el diseño de estos sistemas debe ser cuidadosamente gestionado para evitar posibles consecuencias negativas. Además, se necesita un marco ético y regulador que guíe el desarrollo y uso de estos sistemas, garantizando que su implementación no se haga a expensas de la seguridad, la privacidad o la equidad.

Un paso hacia la inteligencia artificial general (AGI)

El término AGI, o inteligencia artificial general, ha sido durante mucho tiempo un objetivo distante en el mundo de la inteligencia artificial. AGI se refiere a una inteligencia artificial que tiene la capacidad de comprender, aprender y aplicar conocimientos en una amplia variedad de tareas, de manera similar a la inteligencia humana. Manus, con su capacidad de realizar múltiples tareas de forma autónoma, ha sido descrito por algunos como un posible precursor de la AGI, ya que representa un avance significativo en la autonomía y flexibilidad de los sistemas de IA.

Si bien no está claro si Manus llegará a ser una verdadera AGI, su capacidad para operar de manera autónoma y realizar tareas complejas es una muestra de lo que podría venir. A medida que los avances en inteligencia artificial continúan, el debate sobre cómo gestionar, regular y aprovechar estos sistemas será cada vez más relevante.

The post Manus AI: El Avance en la Colaboración Humano-Máquina que Despierta Controversia appeared first on TecnoFuturo24.

]]>
DeepSeek: La Inteligencia Artificial China que Revoluciona el Mercado y Genera Preocupaciones de Privacidad https://tecnofuturo24.com/deepseek-la-inteligencia-artificial-china-que-revoluciona-el-mercado-y-genera-preocupaciones-de-privacidad/ https://tecnofuturo24.com/deepseek-la-inteligencia-artificial-china-que-revoluciona-el-mercado-y-genera-preocupaciones-de-privacidad/?noamp=mobile#respond Thu, 30 Jan 2025 14:17:53 +0000 https://tecnofuturo24.com/?p=11060 En enero de 2025, la empresa china DeepSeek lanzó al mercado su…

The post DeepSeek: La Inteligencia Artificial China que Revoluciona el Mercado y Genera Preocupaciones de Privacidad appeared first on TecnoFuturo24.

]]>
En enero de 2025, la empresa china DeepSeek lanzó al mercado su innovador chatbot de inteligencia artificial, posicionándose rápidamente como una alternativa competitiva a modelos occidentales como ChatGPT. Sin embargo, su ascenso meteórico ha suscitado debates sobre privacidad, seguridad de datos y posibles implicaciones geopolíticas.

Desarrollo y Eficiencia de DeepSeek

DeepSeek fue desarrollada con una inversión de aproximadamente seis millones de dólares y entrenada en un periodo de dos meses, lo que contrasta con los elevados costos y tiempos de desarrollo de sus competidores occidentales. Su modelo de código abierto y eficiencia energética han sido destacados como innovaciones significativas en el campo de la inteligencia artificial.

 

Preocupaciones sobre Privacidad y Seguridad de Datos

A pesar de sus avances tecnológicos, DeepSeek ha generado inquietudes en torno a la privacidad de los usuarios. Bajo las leyes chinas, las empresas deben cooperar con las autoridades en materia de inteligencia, lo que podría implicar que los datos recopilados por DeepSeek estén accesibles para el gobierno chino. Esta situación difiere de la normativa estadounidense, donde generalmente se requiere una orden judicial para acceder a información privada.

 

Expertos en ciberseguridad aconsejan a los usuarios ser cautelosos al compartir información sensible con la aplicación. Se recomienda evitar ingresar datos personales, financieros o cualquier información confidencial que pueda ser almacenada, analizada o solicitada por las autoridades chinas.

 

Acusaciones de Apropiación Tecnológica

DeepSeek ha sido acusada de copiar tecnología de OpenAI’s ChatGPT para desarrollar su modelo de inteligencia artificial. Se alega que la empresa utilizó un proceso denominado “destilación” para extraer conocimientos de los modelos de OpenAI, lo que ha llevado a investigaciones por parte de OpenAI y Microsoft sobre posibles infracciones de derechos de autor.

 

Impacto en el Mercado Tecnológico

El lanzamiento de DeepSeek ha tenido un impacto significativo en el mercado tecnológico global. La aplicación rápidamente se convirtió en la más descargada en la App Store de Apple en Estados Unidos, superando a competidores establecidos. Este éxito ha generado preocupaciones en Estados Unidos sobre posibles riesgos de seguridad nacional, similares a los debates en torno a TikTok.

 

Además, la eficiencia y el bajo costo de desarrollo de DeepSeek han cuestionado el modelo de negocio de las empresas tecnológicas estadounidenses, que invierten sumas significativas en el desarrollo de inteligencia artificial. Este desarrollo ha llevado a una reevaluación de las estrategias en la carrera global por la supremacía en inteligencia artificial.

Reacciones Internacionales y Medidas de Precaución

En respuesta a las preocupaciones de seguridad, la Marina de los Estados Unidos prohibió el uso de DeepSeek entre su personal, citando riesgos potenciales relacionados con la privacidad y la seguridad de los datos. Esta medida refleja la creciente cautela en torno a las aplicaciones de origen chino y su posible uso en operaciones de espionaje o influencia.

Microsoft anunció la incorporación del modelo de inteligencia artificial R1 de DeepSeek en su servicio de la nube, elogiando las “innovaciones reales” de la empresa china. Esta colaboración destaca el reconocimiento de la industria tecnológica global hacia los avances de DeepSeek, a pesar de las preocupaciones existentes.

Conclusión

DeepSeek representa un avance significativo en el desarrollo de inteligencia artificial, ofreciendo una alternativa eficiente y de bajo costo a los modelos occidentales. Sin embargo, su rápido ascenso también ha puesto de relieve importantes debates sobre privacidad, seguridad de datos y las dinámicas geopolíticas en la era digital. Es esencial que los usuarios y las instituciones consideren cuidadosamente estos factores al interactuar con nuevas tecnologías emergentes.

The post DeepSeek: La Inteligencia Artificial China que Revoluciona el Mercado y Genera Preocupaciones de Privacidad appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/deepseek-la-inteligencia-artificial-china-que-revoluciona-el-mercado-y-genera-preocupaciones-de-privacidad/feed/ 0
Prohibición de TikTok Respaldada por la Corte Suprema: La Seguridad Nacional Prevalece Sobre las Reclamaciones de la Primera Enmienda https://tecnofuturo24.com/prohibicion-de-tiktok-respaldada-por-la-corte-suprema-la-seguridad-nacional-prevalece-sobre-las-reclamaciones-de-la-primera-enmienda/ https://tecnofuturo24.com/prohibicion-de-tiktok-respaldada-por-la-corte-suprema-la-seguridad-nacional-prevalece-sobre-las-reclamaciones-de-la-primera-enmienda/?noamp=mobile#respond Sat, 18 Jan 2025 12:09:52 +0000 https://tecnofuturo24.com/?p=10763 La Corte Suprema Apoya la Prohibición de TikTok por Preocupaciones de Seguridad…

The post Prohibición de TikTok Respaldada por la Corte Suprema: La Seguridad Nacional Prevalece Sobre las Reclamaciones de la Primera Enmienda appeared first on TecnoFuturo24.

]]>
La Corte Suprema Apoya la Prohibición de TikTok por Preocupaciones de Seguridad Nacional

En una decisión histórica con amplias implicaciones, la Corte Suprema de los Estados Unidos ha respaldado una ley que allana el camino para una posible prohibición de TikTok, la popular aplicación de redes sociales propiedad de ByteDance, con sede en China. El fallo, emitido el viernes, afirma la postura del gobierno de que las prácticas de datos de la aplicación representan riesgos significativos para la seguridad nacional. La decisión desestima los argumentos de TikTok de que tal prohibición violaría las protecciones de la Primera Enmienda sobre la libertad de expresión, no solo para la compañía sino también para sus 170 millones de usuarios en Estados Unidos.

El fallo de la corte marca un momento crítico en el debate continuo sobre tecnología, privacidad y geopolítica, planteando preguntas sobre el futuro de la plataforma y sus millones de usuarios devotos en los Estados Unidos. Con la implementación potencialmente comenzando tan pronto como el domingo, usuarios y expertos están lidiando con lo que esta decisión significa para el panorama digital.


Seguridad Nacional vs. Libertad de Expresión: El Núcleo del Debate

El equipo legal de TikTok argumentó que la prohibición infringe los derechos de libertad de expresión al silenciar efectivamente una plataforma que sirve como un “canal distintivo y expansivo para la expresión, medios de participación y fuente de comunidad.” Sin embargo, la decisión de la Corte Suprema se alineó con la evaluación del Congreso de que una venta forzada de las operaciones de TikTok en EE.UU. es necesaria para mitigar las amenazas a la seguridad nacional planteadas por sus prácticas de recopilación de datos y sus vínculos con China.

“Por las razones antes mencionadas, concluimos que las disposiciones impugnadas no violan los derechos de la Primera Enmienda de los peticionarios,” declaró la corte en su fallo. La decisión subraya la alineación de la corte con las preocupaciones legislativas y ejecutivas de que los datos sensibles de los usuarios estadounidenses podrían ser utilizados como arma por el gobierno chino.

El Fiscal General Merrick Garland dio la bienvenida al fallo, enfatizando el compromiso del Departamento de Justicia de prevenir que adversarios extranjeros exploten los datos estadounidenses. “Los regímenes autoritarios no deben tener acceso irrestricto a los datos sensibles de millones de estadounidenses,” declaró Garland.


El Panorama Político y la Reacción Pública

La controversia sobre TikTok ha atraído la atención bipartidista, con legisladores de ambos partidos expresando preocupaciones sobre el potencial de la aplicación para servir como una herramienta de espionaje o desinformación por parte del gobierno chino. TikTok, sin embargo, ha negado constantemente estas acusaciones y ha implementado medidas para proteger los datos de los usuarios, incluido el almacenamiento de datos de usuarios estadounidenses en servidores nacionales.

A pesar de estas garantías, el Congreso aprobó la ley que exige la desinversión de TikTok de ByteDance por amplios márgenes en ambas cámaras. La administración de Biden ha respaldado la medida, aunque la implementación de la ley ahora recae en la administración entrante bajo el presidente Donald Trump, quien ha indicado su disposición para explorar soluciones alternativas.

El CEO de TikTok, Shou Chew, en un video publicado el viernes, agradeció al presidente Trump por su compromiso de encontrar una resolución que garantice la disponibilidad continua de la aplicación en EE.UU. “Estamos agradecidos y complacidos de contar con el apoyo de un presidente que realmente entiende nuestra plataforma, uno que ha utilizado TikTok para expresar sus propios pensamientos y perspectivas, conectando con el mundo y generando más de 60 mil millones de vistas de su contenido en el proceso,” dijo Chew.


¿Qué Sucede Ahora con TikTok?

A medida que se acerca el plazo, persiste la incertidumbre sobre cómo será el futuro de TikTok. El Departamento de Justicia, liderado por la Fiscal General Adjunta Lisa Monaco, ha indicado que el proceso de hacer cumplir la ley “se desarrollará con el tiempo,” lo que sugiere que la transición no ocurrirá de la noche a la mañana.

La Casa Blanca emitió un comunicado reiterando la creencia del presidente Biden de que TikTok debe permanecer disponible para los usuarios estadounidenses bajo una propiedad que aborde las preocupaciones de seguridad nacional. La administración reconoció que la aplicación inmediata de la ley sería impráctica dada la próxima transición de poder.

Para los 170 millones de usuarios estadounidenses de TikTok, la pregunta sigue siendo si la aplicación “se apagará” tan pronto como el domingo o si se podría otorgar una prórroga temporal. La administración de Biden se abstuvo de hacer cumplir la ley en sus últimos días, dejando la responsabilidad a la administración entrante.


Implicaciones Más Amplias para las Redes Sociales y la Regulación Tecnológica

La decisión de la Corte Suprema podría sentar un precedente para cómo el gobierno de EE.UU. maneja las empresas tecnológicas extranjeras en el futuro. Los críticos de la decisión argumentan que abre la puerta a un exceso de intervención gubernamental, mientras que los partidarios lo ven como un paso necesario para salvaguardar la seguridad nacional en la era digital.

El fallo también ha provocado un aumento en las descargas de aplicaciones alternativas de redes sociales y discusiones sobre el uso de VPN para eludir posibles restricciones. Sin embargo, los expertos legales advierten que tales soluciones también podrían enfrentar un escrutinio regulatorio.


El Contexto Global

La batalla legal de TikTok en EE.UU. es parte de una tendencia más amplia de gobiernos que examinan las plataformas tecnológicas de propiedad extranjera. Países como India ya han prohibido TikTok, citando preocupaciones similares de seguridad. La decisión de EE.UU. se suma a la creciente presión sobre ByteDance para desinvertir sus intereses en TikTok o arriesgarse a perder acceso a mercados importantes.

A medida que se desarrolla la situación, los expertos enfatizan la necesidad de un enfoque equilibrado que aborde preocupaciones de seguridad legítimas sin sofocar la innovación ni infringir los derechos individuales. Por ahora, el foco permanece firmemente en TikTok y las acciones de la administración entrante.


Conclusión

La decisión de la Corte Suprema de respaldar la prohibición de TikTok representa un momento crucial en la intersección de tecnología, seguridad nacional y libertad de expresión. Si bien el destino de la aplicación en EE.UU. sigue siendo incierto, el fallo destaca los desafíos de regular a los gigantes tecnológicos globales en un mundo cada vez más interconectado. Para los usuarios, legisladores y líderes de la industria, el caso subraya la importancia de abordar estos complejos temas con cuidado y previsión.

The post Prohibición de TikTok Respaldada por la Corte Suprema: La Seguridad Nacional Prevalece Sobre las Reclamaciones de la Primera Enmienda appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/prohibicion-de-tiktok-respaldada-por-la-corte-suprema-la-seguridad-nacional-prevalece-sobre-las-reclamaciones-de-la-primera-enmienda/feed/ 0
La Privacidad de los Datos Médicos en la Era de la Inteligencia Artificial: Un Recordatorio Importante sobre Subir Imágenes Médicas a Chatbots de IA https://tecnofuturo24.com/la-privacidad-de-los-datos-medicos-en-la-era-de-la-inteligencia-artificial-un-recordatorio-importante-sobre-subir-imagenes-medicas-a-chatbots-de-ia/ https://tecnofuturo24.com/la-privacidad-de-los-datos-medicos-en-la-era-de-la-inteligencia-artificial-un-recordatorio-importante-sobre-subir-imagenes-medicas-a-chatbots-de-ia/?noamp=mobile#respond Wed, 20 Nov 2024 12:35:04 +0000 https://tecnofuturo24.com/?p=9694 En la actualidad, la inteligencia artificial (IA) se está integrando cada vez…

The post La Privacidad de los Datos Médicos en la Era de la Inteligencia Artificial: Un Recordatorio Importante sobre Subir Imágenes Médicas a Chatbots de IA appeared first on TecnoFuturo24.

]]>
En la actualidad, la inteligencia artificial (IA) se está integrando cada vez más en nuestras vidas, proporcionando soluciones innovadoras en diversos campos, incluido el sector de la salud. Desde aplicaciones que interpretan resultados médicos hasta herramientas avanzadas que ayudan en diagnósticos, los chatbots de IA están demostrando su potencial para transformar el cuidado de la salud. Sin embargo, a pesar de sus beneficios, hay una creciente preocupación sobre la seguridad y la privacidad de los datos médicos. En particular, los usuarios que suben imágenes médicas, como radiografías, resonancias magnéticas (RM) y tomografías por emisión de positrones (PET), a plataformas de IA deben ser conscientes de los riesgos asociados con la protección de su información privada.

¿Por qué no deberías subir tus imágenes médicas a un chatbot de IA?

Cada vez más, personas de todo el mundo recurren a chatbots de IA, como ChatGPT de OpenAI y Gemini de Google, para hacer preguntas sobre sus preocupaciones médicas y comprender mejor su salud. Estos chatbots permiten a los usuarios recibir respuestas rápidas e instantáneas, basadas en vastos volúmenes de datos, sin necesidad de una consulta en persona. Sin embargo, este tipo de interacciones puede ser riesgoso cuando se trata de datos sensibles como los registros médicos.

Recientemente, se ha observado que algunas plataformas están alentando a los usuarios a cargar imágenes médicas en sus chatbots de IA para que los algoritmos puedan interpretar los resultados. Un ejemplo es la plataforma X, anteriormente conocida como Twitter, que ha promovido la idea de que los usuarios suban sus radiografías y otros escaneos médicos al chatbot Grok. Sin embargo, este tipo de prácticas genera serias preocupaciones sobre la seguridad de los datos y la privacidad de la información personal.

Riesgos de Subir Imágenes Médicas a Chatbots de IA

  1. Falta de protección bajo la ley HIPAA

Uno de los mayores riesgos al cargar imágenes médicas en plataformas de IA es que muchas de estas aplicaciones no están cubiertas por las leyes de privacidad médica, como la Ley de Portabilidad y Responsabilidad de Seguro de Salud (HIPAA, por sus siglas en inglés) en Estados Unidos. HIPAA es un conjunto de regulaciones que protege la información médica confidencial de los pacientes y asegura que los proveedores de salud y las aseguradoras sigan prácticas estrictas para salvaguardar la privacidad de los pacientes.

Desafortunadamente, muchas de las aplicaciones de IA que interpretan imágenes médicas no están sujetas a estas regulaciones, lo que significa que tus datos podrían ser compartidos con otras empresas o almacenados en bases de datos sin la debida protección legal. A menudo, los usuarios no son plenamente conscientes de que sus datos están siendo utilizados para entrenar los algoritmos de IA, lo que podría poner en riesgo su privacidad.

  1. Uso de los datos personales para entrenar IA

Los chatbots de IA, como los de plataformas como OpenAI y X, generalmente utilizan los datos cargados por los usuarios para mejorar sus algoritmos y aumentar la precisión de sus respuestas. Sin embargo, este proceso puede tener implicaciones profundas para la privacidad. Al cargar imágenes médicas, como radiografías y resonancias magnéticas, los usuarios están contribuyendo directamente al entrenamiento de modelos de IA, lo que significa que sus datos podrían ser utilizados para otros fines sin su consentimiento explícito.

Aunque algunas plataformas pueden garantizar que los datos se usan de manera anónima, no siempre es posible asegurar que la información personal no se filtrará o será accesible a terceros. Además, algunas empresas pueden cambiar sus políticas de privacidad en el futuro, lo que podría generar nuevas preocupaciones sobre la seguridad de la información almacenada.

  1. El potencial de exposición a terceros

Otra de las preocupaciones más graves relacionadas con la carga de imágenes médicas a plataformas de IA es la posibilidad de que los datos sean compartidos con terceros, como empleadores, proveedores de servicios médicos o incluso agencias gubernamentales. Debido a que muchas plataformas de IA recopilan grandes cantidades de datos de los usuarios, no es difícil imaginar un escenario en el que los datos médicos privados sean accesibles a personas que no tienen autorización para verlos.

Este riesgo se ve amplificado por la falta de transparencia en las políticas de privacidad de las plataformas. Aunque algunas empresas aseguran que la información se mantiene privada, la realidad es que los usuarios a menudo no tienen control sobre cómo se utilizan sus datos o quién tiene acceso a ellos.

  1. El almacenamiento de datos a largo plazo

Es importante recordar que lo que subes a Internet generalmente nunca desaparece. Incluso si eliminas tus datos de una plataforma de IA, existe la posibilidad de que la información se haya almacenado en cachés o copias de seguridad, lo que podría permitir que se acceda a ella en el futuro. En muchos casos, las plataformas de IA no garantizan que los datos eliminados sean completamente borrados de sus servidores.

Este es un factor crucial a tener en cuenta cuando se cargan datos médicos sensibles. Si no tienes control total sobre lo que sucede con tus imágenes médicas, podrías enfrentar problemas relacionados con la exposición de información privada en el futuro.

  1. El caso de Grok y X: Transparencia y privacidad

En octubre de 2024, Elon Musk, propietario de X, promovió la carga de imágenes médicas a Grok, el chatbot de IA de la plataforma, con el objetivo de que el modelo se volviera más preciso en la interpretación de resultados médicos. Aunque Musk afirmó que los resultados de Grok aún están en una etapa temprana, y que la inteligencia artificial mejoraría con el tiempo, muchos usuarios se han mostrado escépticos ante la falta de claridad sobre cómo se manejan sus datos.

La política de privacidad de X menciona que la plataforma comparte algunos datos personales con empresas “relacionadas”, pero no se especifica quiénes son estos terceros ni qué tan accesible es la información médica. Este tipo de falta de transparencia puede generar desconfianza entre los usuarios y resaltar los riesgos asociados con la carga de datos médicos a plataformas de IA.

¿Qué puedes hacer para proteger tu información médica?

Si bien la IA puede ser útil para obtener respuestas rápidas sobre cuestiones médicas, es fundamental que los usuarios comprendan los riesgos antes de compartir sus datos personales. Aquí hay algunas recomendaciones para proteger tu información médica en el mundo digital:

  1. Evita subir imágenes médicas a plataformas no verificadas

    La forma más segura de proteger tu información es evitar cargar imágenes médicas a plataformas que no están específicamente diseñadas para manejar datos médicos de manera segura. Utiliza servicios en línea que cumplan con las leyes de privacidad y que ofrezcan garantías claras sobre la protección de tus datos.

  2. Consulta siempre con profesionales médicos

    Si tienes dudas sobre tu salud o necesitas interpretar un resultado médico, siempre es recomendable que acudas a un profesional médico capacitado. Los médicos están obligados por la ley a proteger tu privacidad y tienen la experiencia necesaria para interpretar tus resultados de manera adecuada.

  3. Revisa las políticas de privacidad

    Si decides utilizar plataformas que ofrecen servicios relacionados con la interpretación de imágenes médicas, asegúrate de revisar cuidadosamente sus políticas de privacidad. Asegúrate de comprender cómo se recopilan y utilizan tus datos, y qué medidas de seguridad existen para protegerlos.

  4. Considera alternativas seguras

    Existen plataformas específicas para profesionales de la salud que garantizan la protección de los datos y cumplen con las regulaciones de privacidad, como HIPAA. Utilizar estos servicios especializados puede ofrecer una mayor seguridad que las aplicaciones de consumo general.

 Piensa dos veces antes de cargar tus imágenes médicas

Aunque la inteligencia artificial ofrece un gran potencial para mejorar el diagnóstico y el cuidado de la salud, es crucial ser consciente de los riesgos asociados con la carga de imágenes médicas a plataformas no reguladas. La protección de la privacidad de los datos médicos debe ser una prioridad para todos los usuarios, y es importante tomar decisiones informadas sobre cómo se comparte y se maneja esa información.

Recuerda, lo que subes a Internet puede permanecer en línea de manera indefinida. Protege tu privacidad y la de tu salud evitando cargar datos médicos a plataformas de IA que no garanticen una seguridad adecuada.

The post La Privacidad de los Datos Médicos en la Era de la Inteligencia Artificial: Un Recordatorio Importante sobre Subir Imágenes Médicas a Chatbots de IA appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/la-privacidad-de-los-datos-medicos-en-la-era-de-la-inteligencia-artificial-un-recordatorio-importante-sobre-subir-imagenes-medicas-a-chatbots-de-ia/feed/ 0
Google Maps Impulsa su Experiencia con IA Generativa Gemini: Innovaciones en Navegación y Descubrimiento de Lugares https://tecnofuturo24.com/google-maps-impulsa-su-experiencia-con-ia-generativa-gemini-innovaciones-en-navegacion-y-descubrimiento-de-lugares/ https://tecnofuturo24.com/google-maps-impulsa-su-experiencia-con-ia-generativa-gemini-innovaciones-en-navegacion-y-descubrimiento-de-lugares/?noamp=mobile#respond Fri, 01 Nov 2024 20:39:33 +0000 https://tecnofuturo24.com/?p=9423 En un mundo cada vez más conectado, la inteligencia artificial (IA) se…

The post Google Maps Impulsa su Experiencia con IA Generativa Gemini: Innovaciones en Navegación y Descubrimiento de Lugares appeared first on TecnoFuturo24.

]]>
En un mundo cada vez más conectado, la inteligencia artificial (IA) se ha convertido en un motor de cambio en diversas industrias. Google Maps, la popular aplicación de navegación y descubrimiento de lugares, ha dado un paso adelante al incorporar la IA generativa, conocida como Gemini, para mejorar la experiencia de los usuarios. Esta innovadora herramienta no solo facilita la búsqueda de direcciones, sino que también transforma cómo los usuarios descubren y eligen lugares para visitar. En esta nota de prensa, exploraremos las características y beneficios de esta nueva integración, así como su impacto en el futuro de la navegación.

La Evolución de Google Maps con IA Generativa

Google Maps ha sido un referente en el campo de la navegación digital desde su lanzamiento. A lo largo de los años, ha incorporado diversas funciones que han mejorado la experiencia del usuario. Sin embargo, la integración de IA generativa marca un cambio significativo. A partir de esta semana, los usuarios de Android e iOS podrán aprovechar las capacidades de Gemini, el nuevo modelo de IA de Google que utiliza técnicas avanzadas de creación, razonamiento y resumen.

¿Qué es Gemini?

Gemini es un modelo de IA generativa que utiliza algoritmos avanzados para ofrecer respuestas personalizadas y contextuales a las consultas de los usuarios. Este sistema está diseñado para aprender y adaptarse a las preferencias individuales, proporcionando recomendaciones más relevantes y precisas. En el caso de Google Maps, Gemini permite a los usuarios recibir sugerencias personalizadas sobre lugares que podrían disfrutar, basándose en sus intereses y en datos de más de 250 millones de lugares en todo el mundo.

Nuevas Funciones de Google Maps con Gemini

Con la incorporación de Gemini, Google Maps presenta una serie de características innovadoras que transforman la forma en que los usuarios interactúan con la aplicación. Algunas de estas funciones incluyen:

  1. Sugerencias Personalizadas: Al buscar un lugar, los usuarios pueden recibir recomendaciones específicas. Por ejemplo, si alguien busca “lugares para ir por la noche con amigos”, Gemini proporcionará una lista de locales con música en vivo, bares con cócteles populares y otros espacios relevantes.
  2. Recomendaciones Contextuales: Gemini tiene la capacidad de entender el contexto de las solicitudes. Por ejemplo, puede sugerir restaurantes según la hora del día, el clima y las preferencias del usuario, lo que mejora la experiencia de búsqueda.
  3. Interacción Conversacional: La IA generativa permite una interacción más natural y fluida. Los usuarios pueden realizar preguntas de manera conversacional y recibir respuestas instantáneas, facilitando la navegación y la toma de decisiones.
  4. Exploración de Lugares: Gemini ayuda a los usuarios a descubrir nuevos lugares que se alinean con sus intereses. Si un usuario menciona que le gustan los museos, la aplicación puede sugerir exposiciones actuales o lugares de interés histórico en la zona.

Impacto en la Experiencia del Usuario

La incorporación de Gemini a Google Maps no solo mejora la usabilidad de la aplicación, sino que también transforma la experiencia del usuario. Los viajeros y exploradores urbanos ahora pueden disfrutar de un enfoque más intuitivo y personalizado al descubrir lugares. Esta nueva forma de interacción hace que la búsqueda de lugares sea menos frustrante y más enriquecedora.

Además, al ofrecer recomendaciones basadas en datos confiables, Google Maps ayuda a los usuarios a tomar decisiones más informadas sobre dónde ir, lo que puede resultar en experiencias más satisfactorias y memorables.

Desafíos y Consideraciones

A pesar de las muchas ventajas que ofrece la IA generativa, también plantea desafíos. La privacidad de los datos es una preocupación importante, ya que la personalización se basa en la recopilación de información sobre los usuarios. Google ha afirmado que se compromete a proteger la privacidad de sus usuarios y a utilizar los datos de manera ética.

Asimismo, la dependencia de la IA para las decisiones puede generar cierta desconfianza entre los usuarios que prefieren hacer sus propias investigaciones. Es fundamental que Google continúe educando a sus usuarios sobre cómo funciona Gemini y cómo se utilizan sus datos.

La integración de la IA generativa Gemini en Google Maps representa un avance significativo en la forma en que los usuarios interactúan con la aplicación. Con su capacidad para ofrecer sugerencias personalizadas y relevantes, Gemini no solo mejora la navegación, sino que también transforma la experiencia de descubrimiento de lugares. A medida que la tecnología avanza, es emocionante imaginar cómo Google Maps continuará evolucionando para satisfacer las necesidades de los usuarios y mejorar su experiencia.

Acerca de Google Maps

Google Maps es una de las aplicaciones de navegación más utilizadas en el mundo, ofreciendo mapas detallados, información sobre el tráfico y la opción de explorar lugares de interés en todo el planeta. Con la integración de la IA generativa, Google busca proporcionar una experiencia aún más rica y personalizada para sus usuarios.

The post Google Maps Impulsa su Experiencia con IA Generativa Gemini: Innovaciones en Navegación y Descubrimiento de Lugares appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/google-maps-impulsa-su-experiencia-con-ia-generativa-gemini-innovaciones-en-navegacion-y-descubrimiento-de-lugares/feed/ 0
Intentos de empleados de Google por ocultar mensajes a investigadores podrían perjudicar a la empresa https://tecnofuturo24.com/intentos-de-empleados-de-google-por-ocultar-mensajes-a-investigadores-podrian-perjudicar-a-la-empresa/ https://tecnofuturo24.com/intentos-de-empleados-de-google-por-ocultar-mensajes-a-investigadores-podrian-perjudicar-a-la-empresa/?noamp=mobile#respond Fri, 20 Sep 2024 00:30:40 +0000 https://tecnofuturo24.com/?p=8501 Los empleados de Google etiquetaron de manera liberal sus correos electrónicos como…

The post Intentos de empleados de Google por ocultar mensajes a investigadores podrían perjudicar a la empresa appeared first on TecnoFuturo24.

]]>
Los empleados de Google etiquetaron de manera liberal sus correos electrónicos como “privilegiados y confidenciales” y hablaron “off the record” en mensajes de chat, incluso después de haber sido instruidos para preservar sus comunicaciones para los investigadores, han informado los abogados del Departamento de Justicia en un tribunal de Virginia en las últimas semanas.

Esa estrategia podría salir mal si el juez en el segundo juicio antimonopolio de Google cree que la empresa destruyó intencionadamente pruebas que habrían sido perjudiciales para ella. El juez podría llegar a hacer una inferencia adversa sobre los documentos faltantes de Google, lo que significaría asumir que habrían sido perjudiciales para el caso de Google.

Los documentos presentados en el tribunal muestran regularmente las palabras “privilegiados y confidenciales” mientras los ejecutivos discuten su trabajo, ocasionalmente con un miembro del equipo legal de Google incluido en la conversación. El viernes, el exejecutivo de publicidad de Google, Chris LaSala, testificó que esa no era la única estrategia que utilizaba Google. Después de ser colocado bajo una retención de litigios en conexión con la investigación de las autoridades, LaSala dijo que los mensajes de chat de Google tenían el historial desactivado por defecto, y que eso debía cambiarse para cada chat individual que involucrara conversaciones laborales sustantivas.

A lo largo del juicio, varios ex-empleados de Google testificaron que nunca cambiaron la configuración predeterminada y que, aunque sus chats eran mayormente informales, ocasionalmente tenían discusiones comerciales importantes. LaSala, en particular, utilizó esa configuración a su favor en ocasiones. En un chat de 2020, un empleado le preguntó si debían enviar un correo electrónico a otros dos empleados sobre un problema y, poco después, preguntó: “¿O es demasiado sensible para el correo electrónico, así que seguimos chateando?” LaSala instruyó al empleado a “iniciar un chat con el historial desactivado.”

Brad Bender, otro ejecutivo de publicidad de Google que testificó, describió las conversaciones por chat como más parecidas a “encontrarse en el pasillo y decir ‘hey, deberíamos charlar.’” El DOJ también interrogó al exejecutivo Rahul Srinivasan sobre correos electrónicos que marcó como privilegiados y confidenciales, preguntando qué consejo legal estaba buscando en esos correos. Él dijo que no recordaba.

El DOJ argumentó que los empleados de Google eran conscientes de cómo sus palabras podrían usarse en su contra, destacando la capacitación legal “Comunicar con Cuidado” de la empresa. En un correo electrónico de 2019, Srinivasan recordó al grupo que fueran cuidadosos con su lenguaje al discutir una característica de tecnología publicitaria, afirmando que “debemos asumir que cada documento que generemos será visto por los reguladores.”

Si bien los documentos presentados demuestran que Google discutía decisiones comerciales por escrito, en ocasiones, parecían dejar intencionalmente la documentación escasa, indicando que estaban “manteniendo las notas limitadas debido a la sensibilidad del tema.” Esto sugiere que Google era consciente del riesgo de su comunicación escrita.

El portavoz de Google, Peter Schottenfels, afirmó: “Nos tomamos muy en serio nuestras obligaciones de preservar y producir documentos relevantes. Hemos producido millones de documentos, incluidos mensajes de chat, en respuesta a las consultas del DOJ.”

El juez en la primera batalla antimonopolio de Google con el DOJ no hizo una inferencia adversa, aunque falló en contra de Google en la mayoría de los otros aspectos. Dejó claro que no estaba “condonando la falla de Google en preservar pruebas de chat” y advirtió que “cualquier empresa que ponga la carga sobre los empleados para identificar y preservar pruebas relevantes lo hace bajo su propio riesgo.”

The post Intentos de empleados de Google por ocultar mensajes a investigadores podrían perjudicar a la empresa appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/intentos-de-empleados-de-google-por-ocultar-mensajes-a-investigadores-podrian-perjudicar-a-la-empresa/feed/ 0
LinkedIn está entrenando modelos de IA con tus datos https://tecnofuturo24.com/linkedin-esta-entrenando-modelos-de-ia-con-tus-datos/ https://tecnofuturo24.com/linkedin-esta-entrenando-modelos-de-ia-con-tus-datos/?noamp=mobile#respond Wed, 18 Sep 2024 23:30:52 +0000 https://tecnofuturo24.com/?p=8476 Si estás en LinkedIn, deberías saber que la red social ha optado,…

The post LinkedIn está entrenando modelos de IA con tus datos appeared first on TecnoFuturo24.

]]>
Si estás en LinkedIn, deberías saber que la red social ha optado, sin pedir permiso, por incluir cuentas en el entrenamiento de modelos de IA generativa. 404Media informa que LinkedIn introdujo una nueva configuración de privacidad y un formulario de exclusión antes de lanzar una política de privacidad actualizada que dice que los datos de la plataforma se están utilizando para entrenar modelos de IA. Como señala TechCrunch, desde entonces ha actualizado la política.

“Podemos usar tus datos personales para mejorar, desarrollar y proporcionar productos y servicios, desarrollar y entrenar modelos de inteligencia artificial (IA), desarrollar, proporcionar y personalizar nuestros servicios, y obtener información con la ayuda de IA, sistemas automatizados e inferencias, para que nuestros servicios puedan ser más relevantes y útiles para ti y otros.”

LinkedIn escribe en una página de ayuda que utiliza IA generativa para propósitos como funciones de asistencia en la escritura. Puedes revocar el permiso dirigiéndote a la pestaña de privacidad de datos en la configuración de tu cuenta y haciendo clic en “Datos para la Mejora de IA Generativa” para encontrar el interruptor. Cambia el ajuste a “apagado” para optar por no participar.

Según LinkedIn: “Optar por no participar significa que LinkedIn y sus afiliados no usarán tus datos personales ni el contenido en LinkedIn para entrenar modelos en el futuro, pero no afecta al entrenamiento que ya se ha realizado.”

Las preguntas frecuentes publicadas para su entrenamiento de IA dicen que utiliza “tecnologías que mejoran la privacidad para redactar o eliminar datos personales” de sus conjuntos de entrenamiento, y que no entrena sus modelos con aquellos que residen en la UE, EEE o Suiza.

Esa configuración es para datos utilizados para entrenar modelos de IA generativa, pero LinkedIn tiene otras herramientas de aprendizaje automático en funcionamiento para cosas como la personalización y la moderación que no generan contenido. Para excluir tus datos de ser utilizados para entrenar esos, también tendrás que completar el Formulario de Objeción al Procesamiento de Datos de LinkedIn.

La aparente inclusión silenciosa de todos, o al menos la mayoría, de los usuarios de su plataforma por parte de LinkedIn llega solo días después de que Meta admitiera haber recopilado datos de usuarios no privados para entrenamiento de modelos desde 2007.

The post LinkedIn está entrenando modelos de IA con tus datos appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/linkedin-esta-entrenando-modelos-de-ia-con-tus-datos/feed/ 0
OpenAI se ve afectada por preocupaciones sobre la seguridad https://tecnofuturo24.com/openai-se-ve-afectada-por-preocupaciones-sobre-la-seguridad/ https://tecnofuturo24.com/openai-se-ve-afectada-por-preocupaciones-sobre-la-seguridad/?noamp=mobile#respond Fri, 12 Jul 2024 22:50:23 +0000 https://tecnofuturo24.com/?p=6438 Un informe de The Washington Post se suma a una creciente lista…

The post OpenAI se ve afectada por preocupaciones sobre la seguridad appeared first on TecnoFuturo24.

]]>
Un informe de The Washington Post se suma a una creciente lista de acusaciones contra los protocolos de seguridad de OpenAI.

OpenAI lidera la carrera para desarrollar inteligencia artificial tan inteligente como un humano. Sin embargo, los empleados continúan expresando sus graves preocupaciones sobre la seguridad en el laboratorio de investigación sin fines de lucro de $80 mil millones. La última proviene de The Washington Post, donde una fuente anónima afirmó que OpenAI apresuró las pruebas de seguridad y celebró su producto antes de asegurar su seguridad.

“Planearon la fiesta de lanzamiento antes de saber si era seguro lanzar”, dijo un empleado anónimo a The Washington Post. “Básicamente fallamos en el proceso”.

Los problemas de seguridad son una preocupación importante en OpenAI y parecen seguir surgiendo. Empleados actuales y anteriores de OpenAI recientemente firmaron una carta abierta exigiendo mejores prácticas de seguridad y transparencia de la startup, poco después de la disolución de su equipo de seguridad tras la salida del cofundador Ilya Sutskever. Jan Leike, un investigador clave de OpenAI, renunció poco después, afirmando en un post que “la cultura y los procesos de seguridad han quedado en segundo plano frente a productos llamativos” en la empresa.

La seguridad es fundamental para la carta de OpenAI, con una cláusula que afirma que OpenAI asistirá a otras organizaciones para avanzar en la seguridad si se alcanza la inteligencia artificial general en un competidor, en lugar de seguir compitiendo. Afirma estar dedicada a resolver los problemas de seguridad inherentes a un sistema tan grande y complejo. Incluso mantiene sus modelos propietarios en privado, en lugar de abiertos (causando burlas y demandas), por seguridad. Las advertencias sugieren que la seguridad ha sido depriorizada a pesar de ser tan importante para la cultura y estructura de la compañía.

Es evidente que OpenAI está bajo escrutinio, pero los esfuerzos de relaciones públicas por sí solos no serán suficientes para proteger a la sociedad. “Estamos orgullosos de nuestro historial proporcionando sistemas de IA más capaces y seguros y creemos en nuestro enfoque científico para abordar el riesgo”, dijo Taya Christianson, portavoz de OpenAI, en un comunicado a The Verge. “El debate riguroso es crucial dada la importancia de esta tecnología, y continuaremos interactuando con gobiernos, sociedad civil y otras comunidades en todo el mundo en servicio de nuestra misión”.

Según OpenAI y otros que estudian la tecnología emergente, las apuestas en torno a la seguridad son inmensas. “El desarrollo actual de la IA en la frontera plantea riesgos urgentes y crecientes para la seguridad nacional”, dijo un informe encargado por el Departamento de Estado de EE.UU. en marzo. “El surgimiento de la IA avanzada y la AGI [inteligencia artificial general] tiene el potencial de desestabilizar la seguridad global de maneras que recuerdan a la introducción de armas nucleares”.

Las campanas de alarma en OpenAI también siguen al golpe de estado en la junta directiva el año pasado que brevemente destituyó al CEO Sam Altman. La junta dijo que fue removido debido a su falta de “sinceridad constante en sus comunicaciones”, lo que llevó a una investigación que poco tranquilizó al personal.

Lindsey Held, portavoz de OpenAI, dijo al Post que el lanzamiento de GPT-4o “no recortó esquinas” en seguridad, pero otro representante no identificado de la compañía reconoció que el cronograma de revisión de seguridad se comprimió a una semana. “Estamos replanteando toda nuestra forma de hacerlo”, dijo el representante anónimo al Post. “Esto simplemente no fue la mejor manera de hacerlo”.

¿Sabes más sobre lo que está sucediendo dentro de OpenAI? Me encantaría conversar. Puedes contactarme de manera segura en Signal @kylie.01 o por correo electrónico a kylie@theverge.com.

Frente a controversias continuas (¿recuerdas el incidente de Her?), OpenAI ha intentado calmar los temores con algunos anuncios bien cronometrados. Esta semana, anunció que se está asociando con el Laboratorio Nacional de Los Álamos para explorar cómo los modelos avanzados de IA, como GPT-4o, pueden ayudar de manera segura en la investigación bioscientífica, y en el mismo anuncio señaló repetidamente el propio historial de seguridad de Los Álamos. Al día siguiente, un portavoz anónimo dijo a Bloomberg que OpenAI creó una escala interna para rastrear el progreso de sus grandes modelos de lenguaje hacia la inteligencia artificial general.

Los anuncios de esta semana centrados en la seguridad de OpenAI parecen ser un adorno defensivo ante la creciente crítica a sus prácticas de seguridad. Es evidente que OpenAI está bajo escrutinio, pero los esfuerzos de relaciones públicas por sí solos no serán suficientes para proteger a la sociedad. Lo que realmente importa es el impacto potencial en aquellos más allá de la burbuja del Valle del Silicio si OpenAI continúa sin desarrollar IA con protocolos de seguridad estrictos, como afirman internamente: la persona promedio no tiene voz en el desarrollo de AGI privatizado, pero tampoco tiene elección en cuanto a cuán protegido estará de las creaciones de OpenAI.

“Lina Khan, presidenta de la FTC, dijo a Bloomberg en noviembre que las herramientas de IA pueden ser revolucionarias”, pero “en este momento”, dijo, hay preocupaciones de que “los insumos críticos de estas herramientas están controlados por un número relativamente pequeño de empresas”.

Si las numerosas acusaciones contra sus protocolos de seguridad son precisas, esto seguramente plantea serias preguntas sobre la idoneidad de OpenAI para este papel como administrador de AGI, un papel que la organización prácticamente se ha asignado a sí misma. Permitir que un grupo en San Francisco controle una tecnología potencialmente alteradora de la sociedad es motivo de preocupación, y hay una demanda urgente incluso dentro de sus propias filas por transparencia y seguridad ahora más que nunca.

The post OpenAI se ve afectada por preocupaciones sobre la seguridad appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/openai-se-ve-afectada-por-preocupaciones-sobre-la-seguridad/feed/ 0