estafas Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/estafas/ El futuro de la tecnología en un solo lugar. Tech News. Wed, 21 Jan 2026 15:14:43 +0000 en-US hourly 1 https://wordpress.org/?v=6.9.4 https://tecnofuturo24.com/wp-content/uploads/2024/01/cropped-cropped-TecnoFuturo24Box-32x32.jpeg estafas Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/estafas/ 32 32 Comprar online sin caer en una estafa: el nuevo arte de caminar por la vidriera infinita https://tecnofuturo24.com/comprar-online-sin-caer-en-una-estafa-el-nuevo-arte-de-caminar-por-la-vidriera-infinita/ Wed, 21 Jan 2026 15:14:43 +0000 https://tecnofuturo24.com/?p=15181 Columna de opinión por Maximiliano Ripani. Experto en ciberseguridad de ZMA IT…

The post Comprar online sin caer en una estafa: el nuevo arte de caminar por la vidriera infinita appeared first on TecnoFuturo24.

]]>
Columna de opinión por Maximiliano Ripani. Experto en ciberseguridad de ZMA IT Solutions

Hay una nueva escena de la vida moderna que ya se volvió tan habitual como preparar el desayuno, miramos el celular y aparece una publicidad de algo que, curiosamente, veníamos pensando. Un par de zapatillas, un electrodoméstico, un regalo para un cumpleaños, un pasaje, un celular nuevo. En un par de toques ya estamos frente a una oferta irresistible, una promesa brillante o un descuento que parece imposible. Comprar online dejó de ser una actividad excepcional para convertirse en una parte integrante de la cotidianeidad. Desde el supermercado hasta el pago de un impuesto, desde una cama para el perro hasta un repuesto del auto; todo, absolutamente todo, vive en esa vidriera infinita que es internet.

Pero junto con la comodidad vino el riesgo. Si antes temíamos olvidarnos la billetera en un taxi o perder una tarjeta en un cajón, ahora el temor es más etéreo. Ya no se trata de un ladrón que nos saca algo de la mano, sino de alguien que ni sabemos quién es, que puede estar en otra ciudad o incluso en otro continente, y que se vale de nuestra confianza para vaciarnos una cuenta, robar nuestra identidad o simplemente desaparecer con nuestro dinero. Internet trajo lo mejor y lo peor del comercio humano: ofertas increíbles y engaños elaborados, oportunidades reales y trampas muy bien disfrazadas.

Lo más inquietante es que nadie está exento. No importa la edad, el nivel de estudios, el conocimiento tecnológico o la experiencia de vida. Las estafas online no funcionan por ingenuidad: funcionan por psicología. Funcionan porque todos somos humanos, porque nos entusiasma encontrar una buena oportunidad, porque queremos resolver rápido, porque confiamos, porque estamos distraídos. Y porque los estafadores aprendieron a hablar nuestro lenguaje, a imitar a las marcas y a mezclarse entre miles de ofertas legítimas.

Por eso vale la pena pensar, con calma, sin miedo, cómo podemos caminar este mundo digital sin caer en trampas, cómo comprar con confianza, cómo distinguir una oferta real de una que busca estafarnos, cómo mantener la sensatez en un entorno que a veces parece diseñado para confundirnos.

No se trata de desconfiar de todo, sino de aprender a mirar con otros ojos.

Las estafas digitales rara vez se presentan como amenazas. No aparecen con luces rojas ni con música de suspenso. Al contrario: suelen llegar disfrazadas de oportunidad. Un precio demasiado bueno para ser verdad. Un producto “última unidad”. Un envío gratis que termina hoy. Una promoción exclusiva a la que “fuiste seleccionado”.

Los estafadores conocen el funcionamiento de nuestro cerebro mejor que nosotros mismos. Saben que cuando vemos algo que sentimos que no podemos dejar pasar, actuamos rápido. Nos apuran. Nos hacen sentir únicos. Nos envuelven en la idea de que, si no hacemos clic YA, perdemos.

La primera defensa contra ese impulso no es técnica: es emocional. Es aprender a reconocer el entusiasmo extraño que nos provoca esa oferta “perfecta”. Si algo te da demasiada adrenalina, si una parte de vos piensa “esto es demasiado bueno”, entonces probablemente lo sea. Ese es el momento para frenar, mirar con otro ángulo y preguntarte: ¿cómo sé que esto es real?

En el mundo físico, si querés comprar algo, sabés perfectamente dónde estás parado: en un local, en un shopping, en una feria. Ves paredes, personas, objetos. Tenés información visual que te ayuda a confiar o no confiar.

En internet, la “puerta de entrada” es la dirección web. Y aunque suene técnico, no lo es. Una dirección confiable se ve, se siente y se reconoce.

A veces la diferencia entre un sitio real y uno falso es una letra: amaz0n.com en vez de amazon.com, merdadolibre.com en vez de mercadolibre.com, tiendasoficial-adidas.net en vez de adidas.com. Los estafadores no necesitan crear algo totalmente nuevo, les alcanza con imitar.

Pero hay algo más, los sitios legítimos cuidan su estética. Navegarlos se siente “normal”. Si una página se ve desordenada, con logos deformados, con textos mal escritos, o si al hacer clic en algo te lleva a un lugar distinto, esa es una bandera roja que no falla.

El truco no es ser experto en tecnología. El truco es prestar atención. Igual que no entrarías a un local físico que parece abandonado, tampoco deberías confiar en una web que parece armada a las apuradas.

Las grandes tiendas online, los comercios serios, las marcas reconocidas tienen algo que los estafadores no pueden imitar: la coherencia. Coherencia en los colores, en el dominio, en los textos, en los métodos de pago, en la forma de comunicarse.

Una tienda legítima:

Tiene información clara de contacto.

Tiene políticas de devolución visibles.

Tiene reseñas reales y variadas.

Tiene fotos que no parecen sacadas de un catálogo genérico.

No te presiona por WhatsApp a pagar “por afuera”.

Nunca te pide datos bancarios que no corresponden.

Una tienda falsa suele fallar en alguno, o en varios, de esos detalles. Y basta con detectar uno para encender las alarmas.

Instagram, Facebook y TikTok se convirtieron en mercados gigantescos. Pero también se llenaron de perfiles que venden productos inexistentes. Algunos tienen fotos robadas, otros inventan réplicas perfectas de marcas reconocidas, otros ofrecen precios imposibles.

El problema no es la red social: es la falta de controles. Cualquiera puede crear una tienda falsa y desaparecer en 24 horas.

¿Cómo protegerse?

Mirando lo que no se muestra:

¿El perfil tiene muchos seguidores, pero casi sin comentarios?

¿Los comentarios parecen todos iguales o demasiado elogiosos?

¿Las fotos parecen de catálogo, sin personas reales usándolos?

¿No hay direcciones, teléfonos ni datos fiscales?

¿No existe la marca en otro lugar más allá de ese perfil?

Si la respuesta es sí a varias de estas preguntas, lo mejor es salir corriendo.

A veces creemos que las estafas digitales son tan sofisticadas que cualquiera puede caer. Y es cierto. Pero también es cierto que la mayoría de los engaños tienen un patrón simple: ofrecer algo que no puede existir.

Un iPhone nuevo a un 30% del valor real “solo por hoy”.

Una notebook de gama alta al precio de una básica.

Un televisor que supuestamente se remata por liquidación, pero siempre hay stock.

Las empresas reales sí hacen descuentos. Pero jamás al nivel de la fantasía. El cliente no necesita conocer el mercado: basta con usar el sentido común. Si algo es muy barato, pregúntate por qué. Si no encontrás una explicación razonable, entonces no hay una explicación honesta.

La forma de pago es el filtro más efectivo. Los estafadores siempre buscan que pagues por métodos que no permiten reclamos ni reversión, tales como: transferencias bancarias, depósitos, billeteras digitales a personas desconocidas, links raros, intermediarios improvisados.

Las tiendas reales permiten:

Tarjetas de crédito.

Plataformas conocidas.

Medios con respaldo y posibilidad de reclamo.

Una tienda confiable jamás te diría: “Transferime a esta cuenta personal que te hago descuento”.

O: “El pago es por este link de un proveedor amigo, no por la web”.

Eso es equivalente a que un vendedor de un shopping te diga que la caja no funciona y que le pagues a él en mano detrás del local. No lo harías jamás.

Si hay algo que los estafadores perfeccionaron es el arte de apurarte. Son vendedores agresivos. Te cuentan historias diseñadas para que no pienses demasiado:

“Última unidad, se la estoy por reservar a otro.”

“Cerramos hoy, mañana ya no podemos entregarlo.”

“Es de un familiar que necesita el dinero urgente.”

“Reserva solo por transferencia porque la plataforma me cobra mucho.”

Estas frases existen porque funcionan. Y funcionan porque apelan a dos emociones humanas muy profundas: la ansiedad y la solidaridad.

La defensa, otra vez, no es técnica, es emocional. Cuando alguien te apura, cuando algo te hace sentir que si no decidís YA perdés la oportunidad, cuando te quieren empujar en vez de acompañar… es momento de frenar.

Las reseñas pueden ser una bendición o una trampa. Hay sitios con miles de comentarios falsos escritos por bots. Hay perfiles de redes sociales con reseñas que claramente son copy/paste. Pero también hay espacios con opiniones genuinas, variadas, con quejas y elogios reales.

¿Cómo distinguirlo?

Buscá el matiz. Las reseñas reales no son perfectas. No todas dicen lo mismo. Algunas cuentan detalles cotidianos, otras elogian la atención, otras dan advertencias leves. Un conjunto sano de reseñas se parece más a una conversación humana que a un coro de robots.

Si todo es perfecto, si todo suena igual, si no hay una sola crítica, si el lenguaje parece artificial… sospechá.

Los humanos somos animales entrenados para detectar peligros. Nuestros instintos no desaparecieron, los silenciamos. A veces sentimos “algo raro” y lo ignoramos porque queremos creer en la oportunidad. Pero esa sensación es real. Cuando algo no cierra, no cierra. Cuando algo no te convence, aunque no puedas explicar por qué, escuchate.

La intuición no es enemiga de la razón, es su aliada silenciosa. Una estafa no siempre busca dinero inmediato. A veces busca tu información. Tu DNI, tu dirección, tu número de celular, tu correo, los datos de tu tarjeta, tu identidad digital. Esa información vale más que cualquier compra. Por eso, si una página pide demasiados datos, si te exige cosas que no corresponden, si te obliga a completar formularios sospechosos o si te pide claves que nunca deberías dar, salí de ahí sin mirar atrás.

Ningún sitio serio te pide códigos de seguridad, claves bancarias, token, PIN o verificación por WhatsApp. Internet no es peligroso por sí mismo. Lo peligroso es navegarlo sin criterio. Así como en la vida real evitamos ciertas calles, desconfiamos de ciertos vendedores ambulantes o nos alejamos de propuestas demasiado mágicas, lo mismo tenemos que trasladarlo al mundo digital.

Comprar online es seguro si:

Elegís lugares conocidos o de buena reputación.

Revisás la dirección web antes de pagar.

Buscás información externa cuando algo es nuevo.

No dejás que nadie te apure.

Pagás por métodos que te protegen.

Usás plataformas confiables.

No entregás datos sensibles.

Te escuchás a vos mismo.

No se trata de vivir con miedo, sino de vivir con criterio.

Nos guste o no, hoy somos consumidores digitales. Y como tales, necesitamos desarrollar una mirada más madura, más crítica, más cuidadosa. Nadie lo va a hacer por nosotros. Las plataformas mejoran sus controles, los bancos hacen campañas, las marcas verifican cuentas… pero ninguna medida sirve si nosotros mismos no adoptamos la costumbre de revisar, dudar, preguntar y validar.

La educación digital consiste en saber cuidarse.

Es importante decirlo: internet no es un campo minado. Es un mercado gigantesco donde la mayoría de las compras son legítimas. Miles de personas venden con honestidad, miles de tiendas trabajan bien, miles de marcas cuidan la experiencia del usuario. No podemos permitir que los estafadores nos roben la confianza en todo lo demás.

Comprar online es práctico, útil y muchas veces más económico. Solo requiere lo mismo que cualquier interacción humana: un poco de atención.

Cada año aparecen nuevas formas de estafa: suplantación de identidad, redes falsas de tiendas, links engañosos, productos inexistentes, cuentas hackeadas, perfiles clonados. Pero también aparecen nuevas herramientas de protección: sistemas antifraude, pagos con garantía, inteligencia artificial que detecta engaños, plataformas seguras, políticas de devolución claras.

La clave no está en huir del mundo digital, sino en entenderlo. En saber cuándo avanzar y cuándo frenar. En ser consumidores informados, pero no paranoicos.

La vida moderna nos empuja a hacer trámites, compras y gestiones desde la comodidad de un dispositivo. No hay vuelta atrás. Pero podemos elegir cómo hacerlo, a ciegas o con criterio. No hace falta ser experto para evitar estafas. Hace falta atención, calma y sentido común. Hace falta aceptar que, así como no abrirías la billetera en la calle para contar dinero frente a desconocidos, tampoco deberías entregar tu información online sin pensar.

El mundo digital es una vidriera infinita. Y como toda vidriera, tiene cosas verdaderas y cosas engañosas. La diferencia no está en la tecnología: está en tu mirada.

Comprar con seguridad no es solo proteger tu bolsillo: es proteger tu identidad, tu tranquilidad y tu futuro. Es aprender a caminar en un entorno nuevo sin perder la sensatez que siempre tuvimos en la vida real.

Acerca de ZMA IT Solutions. Con más de 50 años de experiencia, ZMA IT Solutions es sinónimo de innovación y confianza en tecnología y ciberseguridad. Somos una empresa familiar que combina tradición y visión de futuro para ofrecer soluciones a medida, respaldadas por una red de más de 600 partners en todo el país. Brindamos software, servicios profesionales y capacitación que impulsan la transformación digital de empresas de todos los tamaños. Nuestra atención cercana y personalizada nos convierte en el aliado ideal para proteger, optimizar y hacer crecer tu negocio. En ZMA, transformamos desafíos tecnológicos en oportunidades de éxito.

The post Comprar online sin caer en una estafa: el nuevo arte de caminar por la vidriera infinita appeared first on TecnoFuturo24.

]]>
ChatGPT te puede ayudar a detectar estafas en línea https://tecnofuturo24.com/chatgpt-te-puede-ayudar-a-detectar-estafas-en-linea/ https://tecnofuturo24.com/chatgpt-te-puede-ayudar-a-detectar-estafas-en-linea/?noamp=mobile#respond Wed, 08 Jan 2025 23:03:16 +0000 https://tecnofuturo24.com/?p=10436 Por Hernán Porras / EntornoInteligente.com. Con ChatGPT solamente debes copiar y pegar…

The post ChatGPT te puede ayudar a detectar estafas en línea appeared first on TecnoFuturo24.

]]>

Por Hernán Porras / EntornoInteligente.com.

Con ChatGPT solamente debes copiar y pegar el correo electrónico, mensaje de texto, o mensaje de redes sociales (incluso mensajes privados de Instagram o de x) e inmediatamente te advierte y te detecta si es es una estafa o no.

En este caso le pedí que me ayudara a detectar si el mensaje que acaba de recibir a mi teléfono era una estafa.

Le pregunté directamente en el prompt:
¿Este texto podría ser una estafa?

Claro, puedo ayudarte a determinar si el texto que tienes podría ser una estafa. Por favor, compártelo conmigo para analizarlo y señalar posibles señales de alerta.

TEXTO
Apple Approval Notice We have noticed that your Apple iCloud id was recently used at \”APPLE STORE – CA\” for $143.95, paid by Apple Pay Pre Authorization. Also some suspicious sign in request and apple pay activation request detected. That looks like suspicious to us. In order to maintain the security and privacy of your account we have placed those request on hold.  If NOT you? talk to an Apple Representative. Failing may lead to auto debit and charge will not be reversed. Call +1 8668955353 immediately to cancel this charge. Billing Department :  https://support.apple.com/billing Have a great day!
ChatGPT Plus
ChatGPT

Este texto tiene varias señales de alerta que indican que podría ser una estafa. Aquí hay un análisis detallado:

Señales de alerta:

  1. Tono alarmante:
    • Frases como “That looks like suspicious to us” y “Failing may lead to auto debit and charge will not be reversed” están diseñadas para asustarte y presionarte a actuar rápidamente.
  2. Gramática y redacción pobre:
    • Frases como “That looks like suspicious to us” y “Failing may lead to auto debit” contienen errores gramaticales que no son comunes en comunicaciones oficiales de Apple.
  3. Llamada a la acción inmediata:
    • La urgencia para llamar al número telefónico proporcionado (+1 8668955353) es típica de las estafas de phishing. Apple normalmente no solicita que llames a un número directamente por problemas de seguridad.
  4. Mención de un cargo sospechoso:
    • Las estafas suelen mencionar transacciones desconocidas para que te alarmes y actúes sin pensar.
  5. Inconsistencia en los enlaces:
    • Aunque el texto menciona un enlace legítimo a Apple (“https://support.apple.com/billing“), esto es un truco para parecer auténtico. El objetivo real es que llames al número falso.
  6. Falta de personalización:
    • Apple siempre se dirige a ti por tu nombre registrado y no usa términos genéricos como “Dear Customer” o “we have noticed”.

Qué hacer:

  • No llames al número: Podrían intentar obtener información personal o financiera sensible.
  • Verifica directamente con Apple:
    • Accede a tu cuenta de Apple a través de su sitio oficial (https://appleid.apple.com) y revisa si hay actividades inusuales.
    • Contacta al soporte oficial de Apple si tienes dudas (desde la página oficial, no desde un número proporcionado en un correo sospechoso).

Este mensaje parece ser una estafa diseñada para robar información personal o financiera. Ignóralo y repórtalo a Apple como intento de phishing (puedes reenviarlo a reportphishing@apple.com).

Por Hernán Porras / EntornoInteligente.com.

The post ChatGPT te puede ayudar a detectar estafas en línea appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/chatgpt-te-puede-ayudar-a-detectar-estafas-en-linea/feed/ 0
Los últimos modelos de IA de Gmail ayudan a bloquear más estafas esta temporada navideña. https://tecnofuturo24.com/los-ultimos-modelos-de-ia-de-gmail-ayudan-a-bloquear-mas-estafas-esta-temporada-navidena/ https://tecnofuturo24.com/los-ultimos-modelos-de-ia-de-gmail-ayudan-a-bloquear-mas-estafas-esta-temporada-navidena/?noamp=mobile#respond Thu, 19 Dec 2024 03:16:00 +0000 https://tecnofuturo24.com/?p=10412 En un intento por combatir el aumento de estafas y mensajes peligrosos…

The post Los últimos modelos de IA de Gmail ayudan a bloquear más estafas esta temporada navideña. appeared first on TecnoFuturo24.

]]>
En un intento por combatir el aumento de estafas y mensajes peligrosos durante la temporada navideña, Gmail ha implementado modelos de inteligencia artificial (IA) mejorados que están demostrando ser más efectivos que nunca. Los datos más recientes muestran una reducción del 35% en los intentos de estafa como phishing y malware en comparación con el mismo período del año pasado, y millones de mensajes no deseados más fueron bloqueados antes de llegar a las bandejas de entrada de los usuarios. Este avance es parte de los esfuerzos continuos de Google para mejorar la seguridad y la experiencia del usuario, especialmente en un momento del año donde las estafas suelen proliferar.

Mejora en las Protecciones con IA
En el último año, Google ha estado desarrollando varios modelos de IA para mejorar las protecciones de Gmail. En particular, un modelo de lenguaje grande (LLM) entrenado específicamente en phishing, malware y spam está ayudando a bloquear un 20% más de spam en comparación con los métodos anteriores. Este modelo, que revisa 1,000 veces más spam reportado por los usuarios cada día, ha demostrado ser extremadamente eficaz en la identificación y eliminación de amenazas potenciales antes de que lleguen a las bandejas de entrada de los usuarios.

Además, antes del Black Friday en late noviembre, Gmail comenzó a utilizar un nuevo modelo de IA que actúa como un supervisor para las defensas de IA existentes. Este modelo evalúa instantáneamente cientos de señales de amenaza cuando un mensaje riesgoso es señalado, desplegando las protecciones adecuadas en respuesta. Los resultados prometedores de este nuevo enfoque son un indicativo de la efectividad continua de Gmail en la protección contra las estafas durante la temporada navideña.

Expectativas y Tendencias de Estafa para la Temporada Navideña
Con un aumento esperado en los intentos de ataque alrededor de esta época del año, Google prevé una “segunda ola” de ataques a medida que los estafadores ajusten sus tácticas y prueben cosas nuevas. La compañía ha identificado tres tipos de estafas que están siendo utilizadas con frecuencia durante esta temporada:

  1. Estafas de celebridades: En los últimos meses, muchas de las estafas más comunes hacen referencia a personas famosas, ya sea fingiendo proceder del propio famoso o afirmando que un dado famoso respalda un producto aleatorio. Estos anuncios no siempre tienen mucho sentido, pero su objetivo es aprovechar la asociación para generar confianza y engañar a las personas haciéndolas caer en escenarios demasiado buenos para ser verdad.
  2. Estafas de extorsión: Este tipo de estafa es particularmente agresivo y aterrador. Los víctimas reciben correos electrónicos que detallan su dirección física, e incluso pueden incluir una foto del lugar. Hay varias versiones diferentes de estos mensajes, pero en general, amenazan con causar daño físico o con la liberación de material personal dañino que dicen haber adquirido a través de un hackeo.
  3. Estafas por facturas falsas: Este método implica que los estafadores envían facturas falsas a usuarios desprevenidos, típicamente tratando de convencer a las víctimas de que se comuniquen para disputar los “cargos”. Utilizan esta conexión como un medio para engañar a los usuarios y hacer que paguen.

Protección Activa contra las Estafas
Gmail continúa mejorando sus herramientas de IA para combatir estos tipos de estafas. Con millones de correos electrónicos bloqueados antes de llegar a las bandejas de entrada, los usuarios están protegidos de manera más efectiva que nunca. Los modelos de IA no solo revisan el contenido de los mensajes, sino que también evalúan contextos adicionales como las direcciones IP y las señales de comportamiento del remitente para identificar y bloquear mensajes sospechosos.

Los datos más recientes indican que estos esfuerzos están rindiendo frutos. Comparado con el mismo período del año pasado, se ha logrado reducir significativamente el volumen de estafas exitosas, demostrando que la inversión de Google en IA está teniendo un impacto tangible en la protección del usuario.

Perspectivas Futuras y Estrategias de Google para la Protección del Usuario
Con la previsión de una “segunda ola” de ataques durante la temporada navideña, Google está preparado para ajustar sus estrategias de defensa. A medida que los estafadores experimentan y buscan nuevas formas de burlar las defensas, Gmail se adaptará utilizando inteligencia artificial avanzada para mantenerse un paso adelante. La empresa enfatiza la importancia de seguir educando a los usuarios sobre cómo identificar señales de estafa y mantenerse alertas ante posibles amenazas.

Google recomienda a los usuarios seguir las mejores prácticas de seguridad, como evitar hacer clic en enlaces sospechosos, no descargar archivos adjuntos no solicitados y no compartir información personal con desconocidos. Con estas medidas de precaución, los usuarios pueden ayudar a protegerse de manera más efectiva contra los estafadores durante la temporada navideña.

 

The post Los últimos modelos de IA de Gmail ayudan a bloquear más estafas esta temporada navideña. appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/los-ultimos-modelos-de-ia-de-gmail-ayudan-a-bloquear-mas-estafas-esta-temporada-navidena/feed/ 0
Recomendaciones del FBI para Protegerse de Estafas Usando Inteligencia Artificial https://tecnofuturo24.com/recomendaciones-del-fbi-para-protegerse-de-estafas-usando-inteligencia-artificial/ https://tecnofuturo24.com/recomendaciones-del-fbi-para-protegerse-de-estafas-usando-inteligencia-artificial/?noamp=mobile#respond Wed, 11 Dec 2024 00:18:13 +0000 https://tecnofuturo24.com/?p=10254 En un entorno cada vez más digitalizado y con el rápido avance…

The post Recomendaciones del FBI para Protegerse de Estafas Usando Inteligencia Artificial appeared first on TecnoFuturo24.

]]>
En un entorno cada vez más digitalizado y con el rápido avance de la inteligencia artificial (IA), la amenaza de la suplantación de identidad y las estafas se han vuelto más prevalentes. El FBI ha lanzado nuevas recomendaciones para proteger a los usuarios de la creciente amenaza de IA que puede suplantar a personas reales y llevar a cabo estafas sofisticadas. Esta nota de prensa explora los desafíos que presenta la IA en la seguridad digital y proporciona estrategias para contrarrestar estos riesgos.

Introducción

La inteligencia artificial ha experimentado un desarrollo asombroso en las últimas décadas. Desde la creación de deepfakes hiperrealistas hasta modelos de aprendizaje automático capaces de generar respuestas complejas y creíbles, la IA ha revolucionado múltiples sectores. Sin embargo, estos avances también han dado lugar a nuevas amenazas, especialmente en el ámbito de la seguridad digital. Los actores malintencionados ahora utilizan IA no solo para realizar tareas legítimas, sino también para cometer fraudes y estafas que ponen en peligro la seguridad y la privacidad de las personas.

Los Avances en Inteligencia Artificial y sus Riesgos

Desde que la IA comenzó a ser utilizada de manera generalizada, se han observado avances significativos en su capacidad para generar contenido creíble. Las herramientas de IA como los generadores de imágenes y vídeos a partir de prompts y los modelos de lenguaje de gran escala (LLM) han mejorado drásticamente, haciendo más difícil para el ojo humano distinguir entre lo real y lo falso. Estos avances también han permitido la creación de deepfakes, donde las caras y voces de personas reales se replican tan perfectamente que se vuelven indistinguibles de las originales.

Un ejemplo reciente es la clonación de voz, que ha permitido a los estafadores hacerse pasar por familiares, amigos o incluso personas conocidas con la intención de engañar y estafar a las víctimas. Estos clones de voz, generados a partir de muestras de audio entrenadas en IA, son cada vez más convincentes y realistas, lo que complica aún más la capacidad de los usuarios para protegerse.

Amenazas a la Seguridad Digital

El FBI ha identificado varias amenazas a la seguridad digital relacionadas con la inteligencia artificial. Una de las más preocupantes es la suplantación de identidad, donde los estafadores usan IA para hacerse pasar por otros, como un familiar en una situación de emergencia o un compañero de trabajo pidiendo dinero prestado. Este tipo de estafas puede ser devastador para las víctimas, especialmente si se ven atrapadas sin poder verificar la autenticidad de la solicitud.

Además, la proliferación de IA generativa también ha facilitado la creación de contenido falso en línea, desde noticias falsas hasta vídeos editados que distorsionan la realidad. Estas herramientas, aunque poderosas, pueden ser mal utilizadas para difundir información engañosa y perjudicial, lo que hace que la tarea de verificar la información sea más compleja que nunca.

Recomendaciones del FBI para Protegerse

Para mitigar estos riesgos, el FBI ha emitido una serie de recomendaciones dirigidas tanto a individuos como a organizaciones. Una de las estrategias clave es la creación y el uso de una “palabra o frase secreta”. Esta técnica proporciona una capa adicional de autenticación que puede ser utilizada para verificar la identidad de una persona en caso de una posible estafa. La idea es que los usuarios acuerden una frase o palabra secreta con sus seres queridos o compañeros de trabajo, que solo ellos conocerán. Cuando se presente una situación de emergencia o se reciban solicitudes sospechosas, la respuesta a esta pregunta secreta puede ayudar a confirmar la identidad de la persona detrás de la comunicación.

La Importancia de una Respuesta Secreta

La “palabra o frase secreta” no solo ayuda a proteger contra estafas que utilizan la clonación de voz, sino que también sirve como un primer paso para identificar posibles intentos de suplantación de identidad. Es crucial que esta respuesta secreta no siga una lógica predecible, ya que de lo contrario, podría ser fácilmente adivinada por una IA entrenada para responder preguntas comunes. Por lo tanto, se recomienda que los usuarios inventen algo completamente aleatorio y específico para cada caso. Esta medida ayuda a evitar que los estafadores entrenen sus algoritmos de IA para responder correctamente a preguntas básicas.

Por ejemplo, en lugar de usar algo como “mi mascota favorita es el gato”, los usuarios podrían optar por una respuesta más aleatoria y difícil de adivinar como “tres ranas saltaron sobre una piedra”. Esta variabilidad asegura que la IA no pueda replicar fácilmente las respuestas correctas y protege mejor contra la suplantación de identidad.

Autenticación Multifactor (MFA)

Además de usar una frase secreta, el FBI también recomienda implementar un sistema de autenticación multifactor (MFA) que combine la verificación por voz y una contraseña segura. La MFA agrega una capa adicional de protección que dificulta aún más que un estafador pueda comprometer una cuenta. Por ejemplo, si una llamada sospechosa se recibe pidiendo una transferencia de fondos o información confidencial, la persona puede requerir que la otra parte responda a una pregunta secreta antes de proceder. Este doble control minimiza el riesgo de suplantación y asegura que la comunicación sea legítima.

La Necesidad de Educación y Precaución

A medida que la tecnología avanza, es fundamental que tanto los individuos como las organizaciones adopten una mentalidad proactiva para enfrentar estas amenazas. La educación y la conciencia sobre cómo funcionan los fraudes basados en IA son esenciales para mantener la seguridad digital. Los usuarios deben estar informados sobre los riesgos y aprender a reconocer los signos de una estafa potencial.

Además, es crucial que los servicios de atención al cliente, tanto en entornos personales como profesionales, implementen medidas de seguridad adecuadas. Esto incluye verificar la identidad de las personas antes de aceptar solicitudes de cambios de cuenta o transferencias financieras. Los sistemas automatizados pueden ayudar en este proceso, pero también deben estar respaldados por una verificación humana cuando sea necesario.

Casos Reales y Lecciones Aprendidas

Un caso reciente subraya la importancia de estas recomendaciones. Un anciano fue víctima de una estafa de $25,000 después de recibir una llamada que simulaba ser su hijo pidiendo ayuda financiera por una emergencia. La voz del supuesto hijo sonaba extremadamente convincente gracias a un algoritmo de IA que había aprendido a replicar su tono y estilo de comunicación. Aunque el anciano tenía algunos indicios de que algo no estaba bien, no pudo verificar la identidad debido a la falta de medidas de seguridad adecuadas.

Este incidente resalta la necesidad urgente de implementar estrategias como las palabras o frases secretas y la autenticación multifactor para proteger a las personas vulnerables. En muchos casos, los estafadores se aprovechan de la falta de conocimiento y la escasa experiencia tecnológica de sus víctimas, lo que hace que estos mecanismos de seguridad sean aún más críticos.

La inteligencia artificial está cambiando rápidamente la forma en que interactuamos y vivimos nuestras vidas. Aunque ofrece oportunidades sin precedentes, también presenta desafíos significativos en términos de seguridad y privacidad. Las recomendaciones del FBI sobre el uso de palabras o frases secretas y la autenticación multifactor son medidas prácticas y efectivas para protegerse contra los fraudes basados en IA. La adopción de estas prácticas debe ser parte de una estrategia integral para mantener la seguridad digital en un mundo cada vez más digitalizado.

Es fundamental que los usuarios permanezcan atentos y proactivos, aprendan a identificar posibles estafas y, sobre todo, mantengan un enfoque constante en la educación sobre seguridad digital. La colaboración entre individuos, empresas y autoridades es esencial para enfrentar estos desafíos y garantizar un entorno seguro para todos.


 

The post Recomendaciones del FBI para Protegerse de Estafas Usando Inteligencia Artificial appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/recomendaciones-del-fbi-para-protegerse-de-estafas-usando-inteligencia-artificial/feed/ 0
La FCC prohíbe las llamadas automáticas con voces generadas por IA https://tecnofuturo24.com/la-fcc-prohibe-las-llamadas-automaticas-con-voces-generadas-por-ia/ https://tecnofuturo24.com/la-fcc-prohibe-las-llamadas-automaticas-con-voces-generadas-por-ia/?noamp=mobile#respond Thu, 08 Feb 2024 23:21:45 +0000 https://tecnofuturo24.com/?p=1907 La Comisión Federal de Comunicaciones (FCC) ha anunciado una importante medida para…

The post La FCC prohíbe las llamadas automáticas con voces generadas por IA appeared first on TecnoFuturo24.

]]>
La Comisión Federal de Comunicaciones (FCC) ha anunciado una importante medida para combatir el fraude telefónico al prohibir el uso de voces generadas por inteligencia artificial (IA) en llamadas automáticas. Esta nueva regla, emitida recientemente, otorga a los fiscales generales estatales la autoridad para tomar acciones legales contra los estafadores que emplean herramientas de clonación de voz AI en sus comunicaciones.

Según lo estipulado en la decisión, las voces generadas por IA ahora son consideradas como “una voz artificial o pregrabada” conforme a la Ley de Protección al Consumidor Telefónico (TCPA). Esto significa que los llamantes no pueden utilizar tales voces para propósitos no urgentes o sin el consentimiento previo del receptor. La TCPA ya incluía prohibiciones sobre diversas prácticas de llamadas automatizadas, pero no había una mención específica sobre la clonación de voz impulsada por IA. Esta nueva decisión clarifica que dichas grabaciones están dentro del alcance de la ley.

La presidenta de la FCC, Jessica Rosenworcel, advirtió sobre el uso malintencionado de voces generadas por IA en llamadas automáticas, que van desde la extorsión de familiares vulnerables hasta la imitación de celebridades y la desinformación de votantes. Rosenworcel destacó que esta medida proporcionará a los fiscales generales estatales nuevas herramientas para combatir estos fraudes y garantizar la protección del público contra el fraude y la desinformación.

Aunque los fiscales generales estatales ya tenían la capacidad de perseguir a los estafadores detrás de las llamadas automáticas por los delitos que cometían, esta nueva regla les permite responsabilizar a los infractores simplemente por el uso de voces generadas por IA. La propuesta inicial para prohibir el uso de tales voces en llamadas automáticas fue presentada el mes pasado por la FCC.

El escrutinio sobre las voces generadas por IA en las llamadas automáticas ha aumentado recientemente. Un ejemplo destacado ocurrió en enero, cuando algunos residentes de New Hampshire recibieron una llamada que aparentemente utilizaba inteligencia artificial para impersonar la voz del presidente Joe Biden, advirtiéndoles que no votaran en las primarias presidenciales del estado. Una investigación posterior vinculó la llamada a dos compañías con sede en Texas: Life Corporation y Lingo Telecom. En respuesta, la FCC emitió una orden de cese y desistimiento a Lingo Telecom, el proveedor que transmitió la llamada fraudulenta.

The post La FCC prohíbe las llamadas automáticas con voces generadas por IA appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/la-fcc-prohibe-las-llamadas-automaticas-con-voces-generadas-por-ia/feed/ 0