Grok Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/grok/ El futuro de la tecnología en un solo lugar. Tech News. Mon, 19 May 2025 14:20:22 +0000 en-US hourly 1 https://wordpress.org/?v=6.8.1 https://tecnofuturo24.com/wp-content/uploads/2024/01/cropped-cropped-TecnoFuturo24Box-32x32.jpeg Grok Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/grok/ 32 32 Grok y la fragilidad de la inteligencia artificial: el caso de las respuestas manipuladas sobre “genocidio blanco” https://tecnofuturo24.com/grok-y-la-fragilidad-de-la-inteligencia-artificial-el-caso-de-las-respuestas-manipuladas-sobre-genocidio-blanco/ Mon, 19 May 2025 14:20:22 +0000 https://tecnofuturo24.com/?p=13787 El reciente comportamiento errático del chatbot Grok, desarrollado por xAI, ha desencadenado…

The post Grok y la fragilidad de la inteligencia artificial: el caso de las respuestas manipuladas sobre “genocidio blanco” appeared first on TecnoFuturo24.

]]>
El reciente comportamiento errático del chatbot Grok, desarrollado por xAI, ha desencadenado un intenso debate global sobre la vulnerabilidad de los modelos de inteligencia artificial frente a la manipulación humana. En un episodio sin precedentes, Grok comenzó a generar respuestas que promovían afirmaciones falsas sobre un supuesto “genocidio blanco” en Sudáfrica, a pesar de que muchas de las preguntas realizadas por los usuarios no tenían relación alguna con ese tema.

Este incidente no solo ha generado inquietud entre los usuarios de plataformas de IA, sino que también ha puesto en evidencia los riesgos profundos que implica confiar en sistemas que pueden ser alterados sin autorización. Aunque la empresa reconoció el error y lo atribuyó a una modificación humana no autorizada en los prompts del sistema, la controversia expone una realidad preocupante: las inteligencias artificiales pueden ser reprogramadas con facilidad para adoptar narrativas cargadas de sesgo político o ideológico.

El caso Grok: una falla con nombre y apellido

Grok es un chatbot diseñado por la empresa xAI, fundada por Elon Musk, quien también dirige Tesla y SpaceX. Desde su lanzamiento, Grok fue presentado como una alternativa irreverente y más directa que otros asistentes como ChatGPT o Gemini. Sin embargo, lo ocurrido en mayo de 2025 ha provocado una ola de cuestionamientos sobre la ética, la gobernanza y la seguridad en torno al uso de estas herramientas.

Durante más de un día, Grok generó respuestas automáticas que reforzaban la narrativa del “genocidio blanco” en Sudáfrica. Usuarios compartieron capturas de pantalla que mostraban cómo el chatbot ofrecía este contenido incluso cuando las consultas no estaban relacionadas con el tema. La empresa tardó más de 24 horas en emitir un comunicado, donde explicó que el comportamiento se debía a una alteración no autorizada de los prompts del sistema, que determinan la personalidad y los límites de respuesta del chatbot.

El trasfondo político y su impacto en la IA

La situación se agrava si se considera el contexto personal de Elon Musk, nacido y criado en Sudáfrica. Musk ha promovido previamente la idea del “genocidio blanco”, una narrativa desacreditada que ha sido usada políticamente para generar división. Que una IA desarrollada por su compañía adopte esta posición sugiere que las opiniones de sus líderes podrían influenciar el comportamiento del modelo, incluso de manera no deliberada.

Este tipo de injerencias cuestionan la supuesta neutralidad de los modelos de lenguaje. Si las decisiones editoriales pueden ser integradas en el sistema mediante la modificación de los prompts, entonces el público se enfrenta a un problema mucho mayor: la incapacidad de distinguir entre una IA autónoma y una herramienta de propaganda personalizada.

Lo que revela el incidente: una falla estructural

El caso Grok no es un incidente aislado, sino una señal de advertencia. Expertos en gobernanza de inteligencia artificial han definido lo sucedido como una “ruptura algorítmica”. Los modelos de lenguaje como Grok, ChatGPT, Gemini o los desarrollados por Meta y Google, no simplemente presentan datos, sino que filtran la información a través de valores implícitos y estructuras determinadas por sus desarrolladores.

Esto significa que, incluso sin intenciones maliciosas, los sistemas pueden comportarse de forma sesgada. En este contexto, la alteración no autorizada del sistema de Grok evidencia una fragilidad que podría ser explotada fácilmente por individuos o grupos con objetivos específicos.

El precedente de otras fallas en la IA

Aunque el escándalo de Grok ha captado la atención global, no es la primera vez que un sistema de inteligencia artificial se ve envuelto en polémicas. En el pasado, otros modelos han mostrado fallos graves: desde aplicaciones que etiquetaban erróneamente a personas, hasta generadores de imágenes que ofrecían representaciones distorsionadas de eventos históricos.

Estos errores, aunque muchas veces corregidos tras una oleada de críticas, revelan una tendencia recurrente: los sistemas de IA, por avanzados que sean, no están exentos de reproducir errores humanos, ya sean por omisión, sesgo, o intervención directa.

La promesa incumplida de la neutralidad algorítmica

Uno de los mitos más persistentes alrededor de la inteligencia artificial es la idea de que estas tecnologías operan con una objetividad superior a la humana. Sin embargo, lo que ha demostrado Grok es todo lo contrario. La IA no está aislada de sus creadores ni de sus contextos sociales, políticos y culturales. Cada línea de código, cada parámetro ajustado, cada dato usado para entrenamiento, refleja decisiones humanas que pueden tener consecuencias profundas.

Los sistemas como Grok son moldeables. Y si esa maleabilidad no es protegida con políticas de seguridad, transparencia y auditoría externa, se corre el riesgo de que las herramientas de IA se conviertan en vehículos para agendas personales o ideológicas.

¿Qué se puede hacer para evitar futuras manipulaciones?

La respuesta no es sencilla, pero empieza por reconocer que la confianza en los sistemas de IA debe ser ganada mediante prácticas responsables. Algunas medidas urgentes que podrían implementarse incluyen:

  1. Auditoría externa independiente de los sistemas de IA para evaluar posibles sesgos o manipulaciones.
  2. Transparencia en los prompts del sistema, como ha prometido xAI tras el incidente.
  3. Regulación gubernamental clara sobre el uso de IA, especialmente en contextos políticos o informativos.
  4. Educación digital para los usuarios, para que comprendan cómo interactuar críticamente con estos sistemas.
  5. Limitación de privilegios internos para evitar alteraciones no autorizadas dentro del código o las instrucciones base de la IA.

El rol de la comunidad internacional y la legislación emergente

En regiones como la Unión Europea, se están proponiendo leyes que exigen mayor transparencia por parte de las empresas tecnológicas que desarrollan inteligencia artificial. Esta legislación podría obligar a compañías como xAI a divulgar cómo se entrenan sus modelos, qué datos se utilizan, y qué mecanismos existen para prevenir sesgos.

Sin estos marcos regulatorios, la IA seguirá operando en una zona gris donde los fallos no tienen consecuencias claras. La presión pública y la acción política serán fundamentales para asegurar que el desarrollo de estas tecnologías beneficie a todos los sectores de la sociedad sin poner en riesgo la integridad informativa.

Implicaciones éticas y filosóficas del control sobre la IA

Más allá de los aspectos técnicos, el caso Grok abre la puerta a un debate mucho más profundo sobre la autonomía de la inteligencia artificial. ¿Qué significa realmente que un modelo sea “general”? ¿Quién decide cuáles temas puede abordar y cómo debe hacerlo? ¿Cómo se garantiza que la IA no se convierta en una extensión de la voluntad de unos pocos?

Las respuestas a estas preguntas no solo afectan a desarrolladores y tecnólogos, sino también a usuarios comunes, académicos, políticos y ciudadanos en general. La democratización del acceso a la IA debe venir acompañada de garantías que protejan a las personas del uso indebido de estas herramientas.

El futuro de Grok y los desafíos que enfrentará xAI

Luego del incidente, xAI ha prometido implementar nuevas medidas de seguridad y publicar los prompts del sistema para recuperar la confianza de los usuarios. Sin embargo, este será un proceso largo y complejo. El simple hecho de que una alteración humana haya sido capaz de reprogramar el comportamiento del chatbot genera dudas sobre los controles internos de la empresa.

Además, el vínculo entre las creencias personales de los líderes empresariales y el diseño de sus tecnologías será un tema recurrente en los próximos años. A medida que las herramientas de IA se integran en procesos educativos, laborales y gubernamentales, el escrutinio público sobre sus intenciones y mecanismos aumentará.

Una advertencia para toda la industria tecnológica

Grok ha sido una llamada de atención para toda la industria de la inteligencia artificial. Desde Silicon Valley hasta Shanghái, los desarrolladores deben replantearse no solo cómo construyen sus sistemas, sino también por qué lo hacen, para quién, y bajo qué valores.

En un entorno donde los datos son poder, y las narrativas moldean percepciones sociales, la responsabilidad de quienes diseñan estas herramientas es mayor que nunca. No se trata simplemente de evitar errores técnicos, sino de garantizar que la IA no se convierta en un arma de desinformación.

The post Grok y la fragilidad de la inteligencia artificial: el caso de las respuestas manipuladas sobre “genocidio blanco” appeared first on TecnoFuturo24.

]]>
La Fusión de xAI y X: Un Movimiento Estratégico en el Ecosistema de Elon Musk https://tecnofuturo24.com/la-fusion-de-xai-y-x-un-movimiento-estrategico-en-el-ecosistema-de-elon-musk/ Wed, 16 Apr 2025 08:32:27 +0000 https://tecnofuturo24.com/?p=12935 En un movimiento que ha captado la atención del mundo tecnológico y…

The post La Fusión de xAI y X: Un Movimiento Estratégico en el Ecosistema de Elon Musk appeared first on TecnoFuturo24.

]]>

En un movimiento que ha captado la atención del mundo tecnológico y financiero, Elon Musk ha anunciado la fusión de su empresa de inteligencia artificial, xAI, con su plataforma de redes sociales, X (anteriormente conocida como Twitter). Esta transacción, realizada completamente en acciones, valora a xAI en 80.000 millones de dólares y a X en 33.000 millones de dólares, considerando una deuda de 12.000 millones de dólares.

Unificación de Recursos y Talento

La fusión de xAI y X no es simplemente una consolidación financiera; representa una integración estratégica de datos, modelos, infraestructura computacional, distribución y talento. Musk ha expresado que esta combinación desbloqueará un potencial inmenso al fusionar la capacidad avanzada de IA de xAI con el alcance masivo de X, que cuenta con más de 600 millones de usuarios activos.

Grok: El Chatbot de xAI

Desde su lanzamiento en noviembre de 2023, Grok se ha convertido en una pieza central en la estrategia de xAI. Este chatbot, inicialmente disponible para usuarios seleccionados de X Premium, ha evolucionado significativamente. En marzo de 2024, Grok-1 fue liberado como código abierto bajo la licencia Apache-2.0, permitiendo a la comunidad acceder a su arquitectura y parámetros de peso.

Posteriormente, en agosto de 2024, se lanzaron Grok-2 y Grok-2 mini, ofreciendo mejoras en el razonamiento y capacidades de generación de imágenes. En febrero de 2025, xAI presentó Grok-3, entrenado con diez veces más poder de computación que su predecesor, utilizando el centro de datos Colossus con aproximadamente 200.000 GPUs. Grok-3 ha demostrado superar a modelos de la competencia en puntos de referencia como AIME y GPQA.

Sinergias en el Ecosistema de Musk

La fusión de xAI y X es coherente con la estrategia de Musk de integrar sus diversas empresas, incluyendo Tesla, SpaceX, Neuralink y The Boring Company. Esta integración permite compartir recursos, talento y datos, creando un ecosistema interconectado que potencia la innovación y eficiencia en cada una de las compañías.

Perspectivas de Inversión

Inversores como Ron Baron, fundador de Baron Capital, han expresado confianza en que cada iniciativa de Musk fortalece a las demás. Esta visión ha llevado a firmas como 8VC, Andreessen Horowitz, DFJ Growth, Fidelity Investments, Manhattan Venture Partners, el Fondo de Inversión Pública de Arabia Saudita, Sequoia Capital y Vy Capital a invertir en múltiples empresas del ecosistema de Musk.

Desafíos Regulatorios y Legales

A pesar del entusiasmo, la fusión enfrenta desafíos. X está siendo investigada por la Comisión de Bolsa y Valores (SEC) de EE. UU. por presuntas demoras en la divulgación de inversiones previas de Musk en Twitter. Además, la Comisión de Protección de Datos de Irlanda ha iniciado una investigación sobre la recopilación de datos de usuarios para el entrenamiento de modelos de IA, en posible violación del Reglamento General de Protección de Datos (GDPR) de la UE.

Futuro de la Fusión

La integración de xAI y X tiene el potencial de redefinir la interacción entre inteligencia artificial y redes sociales. Al combinar la experiencia en IA de xAI con la vasta base de usuarios y datos de X, se espera el desarrollo de experiencias más inteligentes y significativas para los usuarios. Sin embargo, el éxito de esta fusión dependerá de la capacidad de Musk para gestionar los riesgos regulatorios y mantener el enfoque en la innovación y el cumplimiento normativo.

The post La Fusión de xAI y X: Un Movimiento Estratégico en el Ecosistema de Elon Musk appeared first on TecnoFuturo24.

]]>
La Privacidad de los Datos Médicos en la Era de la Inteligencia Artificial: Un Recordatorio Importante sobre Subir Imágenes Médicas a Chatbots de IA https://tecnofuturo24.com/la-privacidad-de-los-datos-medicos-en-la-era-de-la-inteligencia-artificial-un-recordatorio-importante-sobre-subir-imagenes-medicas-a-chatbots-de-ia/ https://tecnofuturo24.com/la-privacidad-de-los-datos-medicos-en-la-era-de-la-inteligencia-artificial-un-recordatorio-importante-sobre-subir-imagenes-medicas-a-chatbots-de-ia/#respond Wed, 20 Nov 2024 12:35:04 +0000 https://tecnofuturo24.com/?p=9694 En la actualidad, la inteligencia artificial (IA) se está integrando cada vez…

The post La Privacidad de los Datos Médicos en la Era de la Inteligencia Artificial: Un Recordatorio Importante sobre Subir Imágenes Médicas a Chatbots de IA appeared first on TecnoFuturo24.

]]>
En la actualidad, la inteligencia artificial (IA) se está integrando cada vez más en nuestras vidas, proporcionando soluciones innovadoras en diversos campos, incluido el sector de la salud. Desde aplicaciones que interpretan resultados médicos hasta herramientas avanzadas que ayudan en diagnósticos, los chatbots de IA están demostrando su potencial para transformar el cuidado de la salud. Sin embargo, a pesar de sus beneficios, hay una creciente preocupación sobre la seguridad y la privacidad de los datos médicos. En particular, los usuarios que suben imágenes médicas, como radiografías, resonancias magnéticas (RM) y tomografías por emisión de positrones (PET), a plataformas de IA deben ser conscientes de los riesgos asociados con la protección de su información privada.

¿Por qué no deberías subir tus imágenes médicas a un chatbot de IA?

Cada vez más, personas de todo el mundo recurren a chatbots de IA, como ChatGPT de OpenAI y Gemini de Google, para hacer preguntas sobre sus preocupaciones médicas y comprender mejor su salud. Estos chatbots permiten a los usuarios recibir respuestas rápidas e instantáneas, basadas en vastos volúmenes de datos, sin necesidad de una consulta en persona. Sin embargo, este tipo de interacciones puede ser riesgoso cuando se trata de datos sensibles como los registros médicos.

Recientemente, se ha observado que algunas plataformas están alentando a los usuarios a cargar imágenes médicas en sus chatbots de IA para que los algoritmos puedan interpretar los resultados. Un ejemplo es la plataforma X, anteriormente conocida como Twitter, que ha promovido la idea de que los usuarios suban sus radiografías y otros escaneos médicos al chatbot Grok. Sin embargo, este tipo de prácticas genera serias preocupaciones sobre la seguridad de los datos y la privacidad de la información personal.

Riesgos de Subir Imágenes Médicas a Chatbots de IA

  1. Falta de protección bajo la ley HIPAA

Uno de los mayores riesgos al cargar imágenes médicas en plataformas de IA es que muchas de estas aplicaciones no están cubiertas por las leyes de privacidad médica, como la Ley de Portabilidad y Responsabilidad de Seguro de Salud (HIPAA, por sus siglas en inglés) en Estados Unidos. HIPAA es un conjunto de regulaciones que protege la información médica confidencial de los pacientes y asegura que los proveedores de salud y las aseguradoras sigan prácticas estrictas para salvaguardar la privacidad de los pacientes.

Desafortunadamente, muchas de las aplicaciones de IA que interpretan imágenes médicas no están sujetas a estas regulaciones, lo que significa que tus datos podrían ser compartidos con otras empresas o almacenados en bases de datos sin la debida protección legal. A menudo, los usuarios no son plenamente conscientes de que sus datos están siendo utilizados para entrenar los algoritmos de IA, lo que podría poner en riesgo su privacidad.

  1. Uso de los datos personales para entrenar IA

Los chatbots de IA, como los de plataformas como OpenAI y X, generalmente utilizan los datos cargados por los usuarios para mejorar sus algoritmos y aumentar la precisión de sus respuestas. Sin embargo, este proceso puede tener implicaciones profundas para la privacidad. Al cargar imágenes médicas, como radiografías y resonancias magnéticas, los usuarios están contribuyendo directamente al entrenamiento de modelos de IA, lo que significa que sus datos podrían ser utilizados para otros fines sin su consentimiento explícito.

Aunque algunas plataformas pueden garantizar que los datos se usan de manera anónima, no siempre es posible asegurar que la información personal no se filtrará o será accesible a terceros. Además, algunas empresas pueden cambiar sus políticas de privacidad en el futuro, lo que podría generar nuevas preocupaciones sobre la seguridad de la información almacenada.

  1. El potencial de exposición a terceros

Otra de las preocupaciones más graves relacionadas con la carga de imágenes médicas a plataformas de IA es la posibilidad de que los datos sean compartidos con terceros, como empleadores, proveedores de servicios médicos o incluso agencias gubernamentales. Debido a que muchas plataformas de IA recopilan grandes cantidades de datos de los usuarios, no es difícil imaginar un escenario en el que los datos médicos privados sean accesibles a personas que no tienen autorización para verlos.

Este riesgo se ve amplificado por la falta de transparencia en las políticas de privacidad de las plataformas. Aunque algunas empresas aseguran que la información se mantiene privada, la realidad es que los usuarios a menudo no tienen control sobre cómo se utilizan sus datos o quién tiene acceso a ellos.

  1. El almacenamiento de datos a largo plazo

Es importante recordar que lo que subes a Internet generalmente nunca desaparece. Incluso si eliminas tus datos de una plataforma de IA, existe la posibilidad de que la información se haya almacenado en cachés o copias de seguridad, lo que podría permitir que se acceda a ella en el futuro. En muchos casos, las plataformas de IA no garantizan que los datos eliminados sean completamente borrados de sus servidores.

Este es un factor crucial a tener en cuenta cuando se cargan datos médicos sensibles. Si no tienes control total sobre lo que sucede con tus imágenes médicas, podrías enfrentar problemas relacionados con la exposición de información privada en el futuro.

  1. El caso de Grok y X: Transparencia y privacidad

En octubre de 2024, Elon Musk, propietario de X, promovió la carga de imágenes médicas a Grok, el chatbot de IA de la plataforma, con el objetivo de que el modelo se volviera más preciso en la interpretación de resultados médicos. Aunque Musk afirmó que los resultados de Grok aún están en una etapa temprana, y que la inteligencia artificial mejoraría con el tiempo, muchos usuarios se han mostrado escépticos ante la falta de claridad sobre cómo se manejan sus datos.

La política de privacidad de X menciona que la plataforma comparte algunos datos personales con empresas “relacionadas”, pero no se especifica quiénes son estos terceros ni qué tan accesible es la información médica. Este tipo de falta de transparencia puede generar desconfianza entre los usuarios y resaltar los riesgos asociados con la carga de datos médicos a plataformas de IA.

¿Qué puedes hacer para proteger tu información médica?

Si bien la IA puede ser útil para obtener respuestas rápidas sobre cuestiones médicas, es fundamental que los usuarios comprendan los riesgos antes de compartir sus datos personales. Aquí hay algunas recomendaciones para proteger tu información médica en el mundo digital:

  1. Evita subir imágenes médicas a plataformas no verificadas

    La forma más segura de proteger tu información es evitar cargar imágenes médicas a plataformas que no están específicamente diseñadas para manejar datos médicos de manera segura. Utiliza servicios en línea que cumplan con las leyes de privacidad y que ofrezcan garantías claras sobre la protección de tus datos.

  2. Consulta siempre con profesionales médicos

    Si tienes dudas sobre tu salud o necesitas interpretar un resultado médico, siempre es recomendable que acudas a un profesional médico capacitado. Los médicos están obligados por la ley a proteger tu privacidad y tienen la experiencia necesaria para interpretar tus resultados de manera adecuada.

  3. Revisa las políticas de privacidad

    Si decides utilizar plataformas que ofrecen servicios relacionados con la interpretación de imágenes médicas, asegúrate de revisar cuidadosamente sus políticas de privacidad. Asegúrate de comprender cómo se recopilan y utilizan tus datos, y qué medidas de seguridad existen para protegerlos.

  4. Considera alternativas seguras

    Existen plataformas específicas para profesionales de la salud que garantizan la protección de los datos y cumplen con las regulaciones de privacidad, como HIPAA. Utilizar estos servicios especializados puede ofrecer una mayor seguridad que las aplicaciones de consumo general.

 Piensa dos veces antes de cargar tus imágenes médicas

Aunque la inteligencia artificial ofrece un gran potencial para mejorar el diagnóstico y el cuidado de la salud, es crucial ser consciente de los riesgos asociados con la carga de imágenes médicas a plataformas no reguladas. La protección de la privacidad de los datos médicos debe ser una prioridad para todos los usuarios, y es importante tomar decisiones informadas sobre cómo se comparte y se maneja esa información.

Recuerda, lo que subes a Internet puede permanecer en línea de manera indefinida. Protege tu privacidad y la de tu salud evitando cargar datos médicos a plataformas de IA que no garanticen una seguridad adecuada.

The post La Privacidad de los Datos Médicos en la Era de la Inteligencia Artificial: Un Recordatorio Importante sobre Subir Imágenes Médicas a Chatbots de IA appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/la-privacidad-de-los-datos-medicos-en-la-era-de-la-inteligencia-artificial-un-recordatorio-importante-sobre-subir-imagenes-medicas-a-chatbots-de-ia/feed/ 0
Dentro de la fiesta de IA de Elon Musk en las antiguas oficinas de OpenAI https://tecnofuturo24.com/dentro-de-la-fiesta-de-ia-de-elon-musk-en-las-antiguas-oficinas-de-openai/ https://tecnofuturo24.com/dentro-de-la-fiesta-de-ia-de-elon-musk-en-las-antiguas-oficinas-de-openai/#respond Thu, 03 Oct 2024 22:56:34 +0000 https://tecnofuturo24.com/?p=8895 Tenía todos los elementos de un típico evento de reclutamiento para una…

The post Dentro de la fiesta de IA de Elon Musk en las antiguas oficinas de OpenAI appeared first on TecnoFuturo24.

]]>
Tenía todos los elementos de un típico evento de reclutamiento para una startup tecnológica en San Francisco: comida gratis, bebidas y música en vivo generada mediante código escrito en tiempo real.

Pero también había controles obligatorios con detectores de metales, verificación de identificación y guardias de seguridad por todas partes. El evento fue organizado por Elon Musk en la sede original de OpenAI en el distrito de Mission, que Musk cofundó antes de abandonar tras, según informes, no lograr tomar el control de la empresa. Y Musk estaba allí para convencer a la gente de unirse a su última startup, xAI.

El momento parecía intencionado. Ese mismo día, OpenAI organizaba su Dev Day anual al otro lado de la ciudad, donde su CEO Sam Altman había hablado horas antes ante un auditorio lleno de desarrolladores. Los rumores en Silicon Valley giraban en torno a que OpenAI estaba cerrando la ronda de financiación más grande para una startup, superando la cantidad que Musk había recaudado para xAI cuatro meses antes.

Alrededor de las 8:30 PM, la música generada por IA se detuvo, y Musk, rodeado de guardaespaldas, subió a una mesa en un área apartada para dirigirse a la sala llena de ingenieros. Comenzó hablando sobre por qué fundó xAI y trasladó la empresa a la misma oficina donde ayudó a lanzar OpenAI hace casi una década.

“Queremos crear una superinteligencia digital que sea lo más benigna posible,” dijo Musk en el encuentro del martes, según una grabación parcial de sus comentarios compartida. Luego hizo un llamado a los presentes: “Únanse a xAI y ayuden a construir la inteligencia y desarrollar aplicaciones útiles a partir de esa inteligencia.”

Musk respondió preguntas durante aproximadamente una hora y media de una audiencia predominantemente masculina, según los asistentes. Dijo que cree que alcanzaremos la inteligencia artificial general (AGI) en un par de años; espera crear una “empresa de aviones supersónicos” a continuación; planea hacer que los modelos de xAI sean de código abierto aproximadamente nueve meses después de su lanzamiento; y, lo más importante, quiere avanzar rápido. Comparó el crecimiento de xAI con el SR-71 Blackbird, un avión que volaba tres veces la velocidad del sonido y proporcionaba información enemiga a EE. UU. durante la Guerra Fría.

“Ningún SR-71 Blackbird fue derribado jamás, y solo tenía una estrategia: acelerar,” dijo Musk a la audiencia, según una publicación en X de uno de los asistentes.

Predijo que OpenAI, Anthropic, Google y xAI serán los principales actores en la carrera de la IA durante los próximos cinco años. El objetivo de la fiesta era encontrar ingenieros para la API de xAI, según un asistente. En última instancia, Musk aspira a que xAI sea tan dominante en IA como lo es SpaceX en cohetes.

A las 10 PM, el jefe de bomberos dio por terminado el evento de reclutamiento. Musk fue escoltado rápidamente por una puerta trasera con su equipo de seguridad. Los asistentes, algunos con mochilas de OpenAI, salieron a la noche con porciones de pizza.

IA máxima y en busca de la verdad

xAI comenzó en marzo de 2023 en el décimo piso de la oficina de X, la plataforma de redes sociales de Musk, antes conocida como Twitter.

Formó un equipo con personas de sus otras empresas, como Tesla y SpaceX, además de su hijo de 17 años, sus primos y el hijo de Jared Birchall, quien dirige su oficina familiar, según ha aprendido The Verge. La misión: superar a OpenAI y entregar un modelo de lenguaje grande competitivo en solo tres meses.

Desde entonces, xAI se ha expandido de un solo piso en X a una oficina más grande en el Parque de Investigación de Stanford en Palo Alto. Musk seleccionó a Igor Babuschkin, exinvestigador de Google DeepMind, para dirigir xAI. También reclutó investigadores de OpenAI, Microsoft y Meta.

En mayo, xAI obtuvo 6 mil millones de dólares de financiación de varios inversores de alto perfil, incluidos Andreessen Horowitz, Lightspeed Venture Partners y Sequoia Capital, valorando la empresa en 24 mil millones de dólares. Los inversores en X poseen el 25% de xAI, que se beneficia de la gran cantidad de datos de entrenamiento que la plataforma de redes sociales produce cada día.

Bajo la presión de Musk, el primer modelo de xAI se lanzó a finales de 2023 a través de Grok, un chatbot para suscriptores de pago de X. Desde entonces, ha lanzado tres actualizaciones: Grok-1.5, Grok-2 y Grok-2 Mini. Pero, a diferencia de los competidores que tuvieron el lujo de desarrollar sus propios sistemas con tiempo, el equipo reducido de xAI tuvo que moverse rápido y encontrar una solución rápida. Una persona familiarizada con el desarrollo del primer modelo lo describió como un producto improvisado que dependía del motor de búsqueda de Microsoft Bing y del modelo Llama de Meta para la reescritura de consultas.

Hace poco más de un mes, xAI anunció un acuerdo con Black Forest Labs para impulsar la generación de imágenes, que carecía de las barreras de seguridad implementadas por otros generadores de imágenes, permitiendo a las personas crear fotos de cualquier cosa, desde Taylor Swift en lencería hasta Kamala Harris con un arma. Musk dijo en X que xAI estaba trabajando en su propio generador, pero que la asociación con Black Forest permitió lanzar uno más rápido en Grok.

Una persona familiarizada con lo que está desarrollando xAI dijo que están en proceso funciones de voz y búsqueda. La idea es que, al igual que OpenAI y los modos de voz de Meta, Grok pueda responder con voz. Musk también quiere que proporcione resúmenes de noticias compartidas en X y temas de tendencia.

The post Dentro de la fiesta de IA de Elon Musk en las antiguas oficinas de OpenAI appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/dentro-de-la-fiesta-de-ia-de-elon-musk-en-las-antiguas-oficinas-de-openai/feed/ 0
Así puedes evitar que X use tus publicaciones para entrenar su IA https://tecnofuturo24.com/asi-puedes-evitar-que-x-use-tus-publicaciones-para-entrenar-su-ia/ https://tecnofuturo24.com/asi-puedes-evitar-que-x-use-tus-publicaciones-para-entrenar-su-ia/#respond Sat, 27 Jul 2024 17:02:20 +0000 https://tecnofuturo24.com/?p=6879 Ahora hay una casilla de verificación para optar por no permitir que…

The post Así puedes evitar que X use tus publicaciones para entrenar su IA appeared first on TecnoFuturo24.

]]>
Ahora hay una casilla de verificación para optar por no permitir que tus publicaciones e interacciones se usen como datos de entrenamiento para el chatbot Grok.

X utiliza tus datos para entrenar a su asistente de IA Grok, pero si deseas optar por no participar, puedes hacerlo directamente desde el menú de configuración. Está disponible en la web aquí, o puedes encontrarlo tú mismo si haces clic en el menú de tres puntos, luego en “Configuración y privacidad”, después en “Privacidad y seguridad” y finalmente en “Grok”.

La cuenta @Safety de X escribió en una publicación el viernes que la configuración está disponible para todos los usuarios en la web ahora y “pronto se implementará en móviles.”

En el menú, puedes desmarcar una casilla para optar por no permitir que “tus publicaciones así como tus interacciones, entradas y resultados con Grok se usen para fines de entrenamiento y ajuste” y compartir datos sobre tus interacciones con xAI. La otra opción para optar por no participar es tener una cuenta privada, lo que “impide que tus publicaciones se usen para entrenar el modelo subyacente de Grok o para generar respuestas a consultas de usuarios.”

No está claro cuándo se hizo disponible la configuración por primera vez. Lo notamos debido a algunas publicaciones que se compartieron ampliamente durante la noche, pero una versión archivada de la página Acerca de de X para Grok de mayo mencionaba los pasos para llegar a la configuración.

También puedes eliminar el historial de conversaciones con Grok (aunque puede que no tengas ninguno, ya que Grok actualmente solo está disponible si te suscribes a X Premium o al más caro Premium Plus).

No es exactamente nuevo que X comunique que entrena sus herramientas de inteligencia artificial con datos de usuarios. La política de privacidad de la empresa, actualizada por última vez en septiembre de 2023, dice que “podemos usar la información que recolectamos y la información disponible públicamente para ayudar a entrenar nuestros modelos de aprendizaje automático o inteligencia artificial para los fines descritos en esta política.”

Una captura de pantalla del menú “Compartición de datos” de X.

Cuando se le contactó para hacer un comentario, el correo de prensa de X respondió con su auto-reply estándar actual: “Ahora estoy ocupado, por favor vuelve a intentarlo más tarde.”

The post Así puedes evitar que X use tus publicaciones para entrenar su IA appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/asi-puedes-evitar-que-x-use-tus-publicaciones-para-entrenar-su-ia/feed/ 0
El xAI de Elon Musk recauda $6 mil millones para financiar su carrera contra ChatGPT y todos los demás https://tecnofuturo24.com/el-xai-de-elon-musk-recauda-6-mil-millones-para-financiar-su-carrera-contra-chatgpt-y-todos-los-demas/ https://tecnofuturo24.com/el-xai-de-elon-musk-recauda-6-mil-millones-para-financiar-su-carrera-contra-chatgpt-y-todos-los-demas/#respond Mon, 27 May 2024 23:04:43 +0000 https://tecnofuturo24.com/?p=4974 Musk afirma que xAI está valorado en $18 mil millones, y busca…

The post El xAI de Elon Musk recauda $6 mil millones para financiar su carrera contra ChatGPT y todos los demás appeared first on TecnoFuturo24.

]]>
Musk afirma que xAI está valorado en $18 mil millones, y busca construir su propia supercomputadora de IA para finales del próximo año. Elon Musk fundó xAI el verano pasado y hoy anunció la recaudación de $6 mil millones en financiamiento. Según Musk, esto ayudará a llevar los “primeros productos de la startup al mercado, construir infraestructura avanzada y acelerar la investigación y el desarrollo de tecnologías futuras”.

Hasta ahora, xAI ha lanzado Grok, una versión supuestamente más audaz del ChatGPT de OpenAI. Grok está disponible a través de X, anteriormente conocido como Twitter, y actualmente solo para los suscriptores de X Premium.

Detalles del Financiamiento

El financiamiento en esta ronda provino de varias fuentes, incluyendo Andreessen Horowitz, Sequoia Capital y el príncipe saudí Al Waleed bin Talal. El año pasado, una presentación ante la Comisión de Bolsa y Valores mostró que xAI buscaba recaudar hasta $1 mil millones en inversiones de capital. Hace unos meses, The Financial Times informó que xAI estaba buscando hasta $6 mil millones, un informe que Musk negó en su momento.

Desafíos y Planes Futuros

El hardware necesario para impulsar el desarrollo de la IA es costoso. Las próximas tarjetas gráficas Blackwell B200 AI de Nvidia cuestan entre $30,000 y $40,000 cada una. La semana pasada, un informe de The Information indicó que xAI necesitaría 100,000 de los chips H100 actuales de Nvidia para una supercomputadora que impulsará una versión mejorada de su chatbot Grok AI. Musk supuestamente dijo a los inversionistas que el plan es lanzar el nuevo centro de datos para el otoño de 2025.

Continuar en la carrera de IA por chips, talento y tecnología no será barato. Las grandes empresas tecnológicas han invertido miles de millones en startups de IA como Anthropic, además de los recursos que Google, Apple, Amazon, Microsoft y Meta están invirtiendo en sus propios proyectos de IA.

Competencia y Asociaciones

Microsoft ha firmado una asociación multimillonaria con OpenAI, cuyo CEO, Sam Altman, supuestamente busca billones de dólares más para renovar la industria global de chips. Musk, miembro fundador de OpenAI, está demandando a esa compañía, afirmando que ha abandonado su misión de beneficiar a la humanidad.

Fuera de xAI y OpenAI, Musk ha declarado que “preferiría construir productos fuera de Tesla” cuando se trata de IA y robótica, a menos que obtenga más control. Los accionistas de Tesla comenzarán a votar esta semana sobre si restablecer el paquete de pago de $56 mil millones de Musk antes de su reunión anual el 13 de junio.

The post El xAI de Elon Musk recauda $6 mil millones para financiar su carrera contra ChatGPT y todos los demás appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/el-xai-de-elon-musk-recauda-6-mil-millones-para-financiar-su-carrera-contra-chatgpt-y-todos-los-demas/feed/ 0