Ingeniería de software Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/ingenieria-de-software/ El futuro de la tecnología en un solo lugar. Tech News. Fri, 16 May 2025 12:16:21 +0000 en-US hourly 1 https://wordpress.org/?v=6.9.1 https://tecnofuturo24.com/wp-content/uploads/2024/01/cropped-cropped-TecnoFuturo24Box-32x32.jpeg Ingeniería de software Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/ingenieria-de-software/ 32 32 Windsurf presenta su propia familia de modelos de IA para ingeniería de software: SWE-1, SWE-1-lite y SWE-1-mini https://tecnofuturo24.com/windsurf-presenta-su-propia-familia-de-modelos-de-ia-para-ingenieria-de-software-swe-1-swe-1-lite-y-swe-1-mini/ Fri, 16 May 2025 12:16:21 +0000 https://tecnofuturo24.com/?p=13750 En una jugada estratégica que podría redefinir el futuro de la ingeniería…

The post Windsurf presenta su propia familia de modelos de IA para ingeniería de software: SWE-1, SWE-1-lite y SWE-1-mini appeared first on TecnoFuturo24.

]]>
En una jugada estratégica que podría redefinir el futuro de la ingeniería de software asistida por inteligencia artificial, la startup Windsurf ha anunciado oficialmente el lanzamiento de su primera familia de modelos de IA desarrollados internamente: SWE-1, SWE-1-lite y SWE-1-mini. Estos nuevos modelos han sido entrenados para optimizar todo el proceso de ingeniería de software, y no solo para generar líneas de código. Esta iniciativa coloca a Windsurf en una nueva categoría, avanzando más allá de su reputación como desarrollador de herramientas de IA para programadores, y posicionándose como un creador de modelos fundamentales propios.


Un salto desde las herramientas a los modelos propios

Windsurf, ampliamente reconocida por su enfoque “vibe-coding” —una metodología que permite a los ingenieros escribir y editar código mediante conversaciones fluidas con un chatbot de IA— ha dado un paso ambicioso. Históricamente, la empresa ha basado su funcionamiento en modelos de terceros como OpenAI, Google o Anthropic. Sin embargo, con la introducción de SWE-1 y sus variantes, Windsurf rompe con esta dependencia y se perfila como una entidad con autonomía tecnológica.

La empresa describe sus nuevos modelos como entrenados para operar de manera efectiva en todos los aspectos del desarrollo de software: desde la redacción inicial del código, pasando por la depuración, integración, pruebas, documentación, hasta la gestión de tareas y ciclos de desarrollo prolongados. SWE-1, el modelo insignia de esta familia, se destaca por su rendimiento competitivo frente a alternativas como GPT-4.1, Claude 3.5 Sonnet y Gemini 2.5 Pro en métricas internas de programación.


SWE-1: Una propuesta integral

El modelo SWE-1 ha sido diseñado no solo para ser eficaz en tareas de programación, sino también para abordar las complejidades que caracterizan la ingeniería de software moderna. Según Windsurf, este modelo trabaja de forma eficiente entre múltiples superficies, algo fundamental para los ingenieros que navegan constantemente entre terminales, entornos de desarrollo integrados (IDEs) y navegadores web. El proceso de entrenamiento de SWE-1 incluye lo que la empresa denomina una “receta de entrenamiento” centrada en estados incompletos, tareas de larga duración y contextos múltiples.

Este enfoque sugiere que SWE-1 no solo puede escribir código funcional, sino también mantener la coherencia del mismo a lo largo de un flujo de trabajo complejo, incluyendo cambios de contexto, sesiones prolongadas y colaboración entre equipos.


Diferencias clave frente a los modelos convencionales

La mayoría de los modelos de IA existentes, aunque muy eficaces para generar código, tienden a presentar limitaciones cuando deben interactuar con múltiples herramientas o cuando se enfrentan a proyectos de desarrollo prolongados y no lineales. En cambio, SWE-1 ha sido diseñado desde cero para comprender y manejar la dinámica real del entorno de trabajo de un ingeniero de software.

Esto representa un avance notable respecto a los modelos optimizados únicamente para codificación. SWE-1 pretende ser un copiloto más holístico, capaz de interactuar proactivamente con los usuarios, anticipar errores, recordar tareas anteriores e incluso sugerir soluciones en función del historial del proyecto.


Diversificación con SWE-1-lite y SWE-1-mini

Además del modelo principal, Windsurf también ha presentado dos variantes: SWE-1-lite y SWE-1-mini. Estas versiones están diseñadas para ofrecer capacidades similares, aunque con menor potencia computacional, lo cual las hace accesibles para usuarios con diferentes niveles de necesidad y recursos.

Ambos modelos estarán disponibles para todos los usuarios de la plataforma, tanto gratuitos como de pago. Por su parte, SWE-1 estará reservado exclusivamente para usuarios de pago. Aunque no se han revelado detalles específicos sobre el precio, Windsurf asegura que sus modelos son más económicos de operar que otros disponibles en el mercado, incluyendo Claude 3.5 Sonnet.


Un enfoque orientado al futuro

El lanzamiento de SWE-1 y su familia refleja una intención clara por parte de Windsurf: diferenciarse no solo por la interfaz de usuario o el diseño de sus herramientas, sino también por la base tecnológica que las respalda. En un vídeo publicado como parte de la presentación, el jefe de investigación de la empresa, Nicholas Moy, enfatizó que el objetivo de Windsurf no es simplemente competir en codificación, sino elevar la experiencia completa de ingeniería de software mediante inteligencia artificial.

Moy subraya que los modelos actuales, aunque han avanzado significativamente, aún no cumplen con todas las exigencias de la ingeniería moderna. La estrategia de Windsurf se enfoca en cerrar esa brecha, con modelos que no solo entienden código, sino el contexto, la intención y la arquitectura general del software.


Impacto en el sector del “vibe coding”

El movimiento de Windsurf puede tener un efecto dominó en la industria de startups dedicadas al “vibe coding”. Empresas como Cursor y Lovable, que también dependen en gran medida de modelos de IA de terceros, podrían verse presionadas a desarrollar soluciones internas para mantenerse competitivas.

El enfoque de Windsurf de incorporar inteligencia artificial que interactúe de forma fluida con distintas capas del flujo de trabajo técnico (editores, consolas, herramientas externas) podría establecer un nuevo estándar. Ya no basta con ofrecer un asistente de codificación; el futuro parece estar en asistentes de desarrollo completos que puedan navegar con soltura en un entorno de trabajo dinámico y cambiante.


Sutilezas en la arquitectura de los modelos SWE

Uno de los aspectos más innovadores de SWE-1 es su estructura de entrenamiento centrada en tareas prolongadas e inacabadas. Este tipo de entrenamiento permite que el modelo se mantenga funcional y eficiente en sesiones que involucran cambios de contexto, interrupciones y múltiples procesos en paralelo. Además, Windsurf afirma que el modelo se ha entrenado con datos más cercanos a escenarios reales de trabajo, lo cual fortalece su capacidad de adaptación al flujo humano de desarrollo de software.

Esta característica contrasta fuertemente con modelos anteriores que suelen perder contexto o requerir constante retroalimentación por parte del usuario cuando se enfrentan a proyectos extensos.


Hacia una nueva generación de copilotos de software

Con el lanzamiento de estos modelos, Windsurf no solo consolida su presencia en el ecosistema del “vibe coding”, sino que se propone liderar una nueva generación de copilotos de software: sistemas de IA que van más allá de la simple generación de código y que entienden, gestionan y optimizan procesos de desarrollo en su totalidad.

Los SWE no están orientados a reemplazar al desarrollador humano, sino a empoderarlo, permitiéndole centrarse en los aspectos más estratégicos y creativos del desarrollo, mientras la IA se ocupa de los aspectos mecánicos, repetitivos o propensos a errores.


Lo que significa esto para los desarrolladores

Para los desarrolladores, esta evolución podría traducirse en una mayor eficiencia, menos frustración ante tareas repetitivas, y una experiencia de codificación más integrada. El hecho de que SWE-1-lite y SWE-1-mini estén disponibles para usuarios gratuitos también democratiza el acceso a estas nuevas tecnologías, permitiendo a profesionales y estudiantes por igual beneficiarse de avances de última generación.

El lanzamiento de SWE-1 también plantea interrogantes importantes sobre la dirección que tomarán las plataformas de desarrollo en los próximos años. Si la tendencia se mantiene, podríamos estar ante el nacimiento de entornos completamente asistidos por IA, donde las ideas se traduzcan en software funcional con una mínima intervención manual.


¿Qué sigue para Windsurf?

Aunque todavía no se han confirmado oficialmente los detalles de una adquisición por parte de una gran corporación tecnológica, el momento elegido para lanzar estos modelos propios parece intencionado. Podría interpretarse como una declaración de independencia tecnológica o incluso como una estrategia de fortalecimiento previo a una integración más amplia.

Lo que es seguro es que, con SWE-1, Windsurf ha marcado un nuevo punto de inflexión en la evolución de la IA aplicada al desarrollo de software. Y si su visión se concreta, podría no solo transformar la manera en que los ingenieros interactúan con sus herramientas, sino también cambiar el concepto mismo de lo que significa “programar” en la era moderna.

The post Windsurf presenta su propia familia de modelos de IA para ingeniería de software: SWE-1, SWE-1-lite y SWE-1-mini appeared first on TecnoFuturo24.

]]>
AI Rewired: Cómo la Inteligencia Artificial Ha Transformado el Desarrollo de Software https://tecnofuturo24.com/ai-rewired-como-la-inteligencia-artificial-ha-transformado-el-desarrollo-de-software/ Mon, 24 Mar 2025 16:27:20 +0000 https://tecnofuturo24.com/?p=12441 En el mundo del desarrollo de software empresarial, donde la complejidad aumenta…

The post AI Rewired: Cómo la Inteligencia Artificial Ha Transformado el Desarrollo de Software appeared first on TecnoFuturo24.

]]>
En el mundo del desarrollo de software empresarial, donde la complejidad aumenta con la ambición y los plazos de entrega son constantes inquebrantables, la inteligencia artificial (IA) ha irrumpido con una fuerza transformadora. Lo que antes se limitaba a laboratorios teóricos y experimentos de nicho ahora es una herramienta práctica que multiplica la productividad, reorganiza los flujos de trabajo y desafía a los ingenieros a replantear su oficio.

Para aquellos que diseñamos soluciones a gran escala, ya sea para infraestructuras de Fortune 500 o plataformas SaaS globales, la influencia de la IA es innegable en todo el ciclo de desarrollo: desde la generación de código hasta las pruebas, la implementación y el mantenimiento. En este artículo, exploraremos cómo la IA ha cambiado radicalmente el desarrollo de software y hacia dónde se dirige esta evolución.

Generación de Código: De la Rutina a la Innovación

Atrás quedaron los días en los que los desarrolladores tenían que escribir manualmente cada línea de código para funciones repetitivas. Con la llegada de herramientas como GitHub Copilot, impulsado por OpenAI Codex, y Grok-3 de xAI, el proceso de generación de código ha dado un salto cualitativo. Estas herramientas no solo completan fragmentos de código, sino que pueden generar funciones completas basadas en un simple comentario dentro del código fuente.

Para las grandes empresas, esto implica una reducción significativa del tiempo de desarrollo. Un sistema de microservicios puede estructurarse en cuestión de horas en lugar de semanas, con todos los componentes necesarios, desde la inyección de dependencias hasta el manejo de errores. Empresas como Capital One han reducido sus ciclos de desarrollo de software gracias a la asistencia de la IA. Sin embargo, esto también impone un nuevo reto a los desarrolladores: dominar la ingeniería de prompts para generar código seguro y robusto.

Pruebas y Control de Calidad: Precisión y Rapidez

Las pruebas han sido tradicionalmente un cuello de botella en el desarrollo de software, pero la IA está transformando este proceso. Herramientas como Testim y Mabl utilizan aprendizaje automático para generar casos de prueba automáticamente y adaptarse a cambios en la interfaz de usuario o las API sin necesidad de reescritura manual.

En sistemas complejos, como los ERPs monolíticos, la IA puede analizar flujos de usuario, generar pruebas de regresión y priorizar cobertura basada en patrones históricos de defectos. Esto significa que las empresas pueden reducir hasta en un 30% la tasa de errores que escapan a la detección en aplicaciones empresariales, según un informe de Gartner de 2025.

DevOps e Implementación: Automatización Inteligente

La IA está acelerando la gestión de infraestructura y las operaciones de desarrollo. Herramientas como Harness predicen qué pruebas ejecutar en función de los cambios en el código, reduciendo tiempos de compilación en entornos empresariales de gran escala. Netflix, por ejemplo, ha implementado una versión avanzada de su herramienta Chaos Monkey basada en IA para simular fallos y mejorar la resiliencia de sus sistemas en Kubernetes.

A nivel empresarial, esto implica que actualizaciones críticas pueden implementarse con riesgos mínimos. Empresas como Target han comenzado a utilizar IA para desplegar actualizaciones en miles de nodos simultáneamente, detectando anomalías en tiempo real para evitar problemas de rendimiento.

Depuración y Mantenimiento: Diagnóstico en Tiempo Récord

Las herramientas impulsadas por IA están revolucionando la depuración de software. Plataformas como Sentry ahora pueden analizar trazas de errores y sugerir correcciones basadas en millones de casos previos. Esto reduce drásticamente el tiempo de resolución de errores, permitiendo que los ingenieros se enfoquen en tareas estratégicas en lugar de perder horas analizando logs.

Un estudio de IDC en 2025 reveló que la depuración asistida por IA puede reducir el tiempo promedio de resolución de errores en un 40% en entornos empresariales, lo que es crucial para plataformas financieras donde el tiempo de inactividad puede costar millones de dólares.

Colaboración y Gestión del Conocimiento

La colaboración en equipos de desarrollo también se ha visto mejorada por la IA. Microsoft Teams ha integrado funciones de IA para resumir discusiones en solicitudes de extracción, mientras que Grok-3 permite a los ingenieros consultar incidentes previos utilizando lenguaje natural. Google ya utiliza IA en sus revisiones de código para detectar violaciones de estilo y sugerir mejoras, reduciendo el tiempo de revisión en un 25%.

Para equipos distribuidos a nivel global, esto significa mayor coherencia en el desarrollo de software y menos tiempo dedicado a la búsqueda de información en documentaciones dispersas.

Retos y Nuevas Habilidades para los Ingenieros

Si bien la IA ha traído enormes beneficios, también plantea desafíos. La seguridad sigue siendo una preocupación, ya que el código generado por IA puede introducir vulnerabilidades si no es revisado adecuadamente. Asimismo, la escalabilidad es un reto, ya que entrenar modelos avanzados como Grok-3 requiere grandes capacidades computacionales.

Por otro lado, los ingenieros deben evolucionar su conjunto de habilidades para incluir el dominio de herramientas de IA, ajuste de prompts y validación de modelos. Según un análisis de McKinsey en 2025, el desarrollo asistido por IA aumentará la productividad en un 35%, permitiendo a los equipos entregar productos con mayor rapidez.

La IA como Competencia Clave

Para los desarrolladores de software empresarial, la IA ya no es una tendencia emergente, sino una competencia esencial. Adoptar herramientas como Copilot, Mabl y Harness es crucial para mantenerse competitivo. Aquellos que no integren IA en sus procesos de desarrollo podrán quedar relegados en la carrera tecnológica, de la misma manera que las empresas que tardaron en adoptar la computación en la nube.

El futuro del desarrollo de software está marcado por la IA. Las empresas deben capacitar a sus equipos y optimizar sus procesos con estas tecnologías para seguir a la vanguardia. La pregunta ya no es si la IA cambiará el desarrollo de software, sino qué tan rápido se adaptarán los ingenieros a esta nueva realidad.

The post AI Rewired: Cómo la Inteligencia Artificial Ha Transformado el Desarrollo de Software appeared first on TecnoFuturo24.

]]>
Los Modelos de Lenguaje Extenso (LLMs) Pueden Arreglar Errores, Pero No Encontrarlos: Un Estudio de OpenAI Destaca los Límites de la IA en la Ingeniería de Software https://tecnofuturo24.com/los-modelos-de-lenguaje-extenso-llms-pueden-arreglar-errores-pero-no-encontrarlos-un-estudio-de-openai-destaca-los-limites-de-la-ia-en-la-ingenieria-de-software/ Wed, 19 Feb 2025 14:22:26 +0000 https://tecnofuturo24.com/?p=11569 En el vertiginoso mundo del desarrollo de software, la inteligencia artificial (IA)…

The post Los Modelos de Lenguaje Extenso (LLMs) Pueden Arreglar Errores, Pero No Encontrarlos: Un Estudio de OpenAI Destaca los Límites de la IA en la Ingeniería de Software appeared first on TecnoFuturo24.

]]>
En el vertiginoso mundo del desarrollo de software, la inteligencia artificial (IA) ha irrumpido con fuerza, transformando procesos y optimizando tareas complejas. Sin embargo, un reciente estudio de OpenAI demuestra que, aunque los modelos de lenguaje extenso (LLMs) pueden solucionar errores, aún no son capaces de identificar la causa raíz de estos problemas, revelando así sus limitaciones en la ingeniería de software.


El Impacto de los LLMs en el Desarrollo de Software

Los LLMs han cambiado drásticamente el panorama del desarrollo de software. Desde la generación de código hasta la resolución de errores, estas herramientas han demostrado su eficacia en tareas específicas. No obstante, el estudio de OpenAI subraya que, aunque pueden reemplazar parcialmente a los ingenieros de software de nivel básico, no están en condiciones de hacerlo completamente. A pesar de las afirmaciones de Sam Altman, CEO de OpenAI, sobre el potencial de estos modelos para sustituir a ingenieros “de bajo nivel”, los resultados del estudio pintan un panorama más matizado.


SWE-Lancer: El Benchmark Innovador de OpenAI

Para explorar el verdadero alcance de los LLMs en la ingeniería de software, OpenAI desarrolló un innovador benchmark llamado SWE-Lancer. Este benchmark evalúa el rendimiento de los modelos de lenguaje en tareas de ingeniería de software freelance, utilizando 1,488 tareas reales de la plataforma Upwork, que representan un total de $1 millón en pagos potenciales.

El enfoque de OpenAI fue riguroso: se agruparon las tareas en dos categorías principales:

  1. Tareas de Contribución Individual: Incluyen la resolución de errores y la implementación de nuevas funcionalidades.
  2. Tareas de Gestión: En estas, el modelo asumía el rol de un gerente encargado de seleccionar la mejor propuesta para solucionar un problema específico.

Los resultados del estudio revelaron que, aunque los modelos pueden ayudar a resolver errores, aún no tienen la capacidad de comprender la causa raíz de estos problemas, lo que conduce a soluciones incompletas o incorrectas.


Resultados del Estudio: Limitaciones de los LLMs en la Resolución de Errores

El estudio se realizó utilizando tres de los modelos de lenguaje más avanzados: GPT-4o y o1 de OpenAI, y Claude-3.5 Sonnet de Anthropic. A pesar de sus impresionantes capacidades en ciertas áreas, los resultados indican que ninguno de estos modelos pudo ganar el total de $1 millón de las tareas de Upwork.

El Claude 3.5 Sonnet fue el mejor desempeño, ganando $208,050 y resolviendo el 26.2% de las tareas de contribución individual. Sin embargo, la mayoría de sus soluciones eran incorrectas o incompletas, lo que demuestra que se necesita una mayor fiabilidad antes de considerar su implementación en entornos laborales reales.

Uno de los hallazgos más significativos es que los LLMs son extremadamente eficientes en la localización de errores. Utilizan búsquedas por palabras clave en todo el repositorio de código para ubicar rápidamente el archivo o función relevante, a menudo más rápido que un ingeniero humano. No obstante, su capacidad para identificar la causa raíz del problema es limitada.


Desempeño en Tareas de Gestión: Un Rayo de Esperanza para los LLMs

Curiosamente, los LLMs demostraron un mejor rendimiento en las tareas de gestión. Estas tareas requerían razonamiento y comprensión técnica para evaluar propuestas de solución, un ámbito donde los modelos mostraron habilidades prometedoras. Esto sugiere que, aunque los LLMs aún no pueden reemplazar a los ingenieros de software en la resolución de errores complejos, podrían asistir en roles de supervisión y revisión de propuestas.


Desafíos y Limitaciones: La Importancia de los Ingenieros Humanos

A pesar de sus avances, los LLMs aún presentan limitaciones críticas. Los resultados del estudio destacan que, aunque son hábiles para localizar problemas, no comprenden completamente cómo estos abarcan múltiples componentes o archivos, lo que resulta en soluciones parciales. Además, los modelos no intentan reproducir el error, lo que es esencial en el proceso de depuración para garantizar que la solución propuesta sea efectiva.

Este hallazgo reafirma la necesidad de ingenieros humanos en el proceso de desarrollo de software. Los profesionales no solo solucionan errores, sino que también comprenden el contexto completo del sistema, lo que les permite identificar y abordar problemas complejos de raíz.


Implicaciones para el Futuro de la Ingeniería de Software

El estudio de OpenAI aporta valiosas lecciones para el futuro de la IA en la ingeniería de software:

  • Complemento, No Sustitución: Los LLMs pueden complementar a los ingenieros humanos, ayudando en la localización de errores y en la evaluación de propuestas. Sin embargo, la supervisión humana sigue siendo esencial.
  • Mejoras Necesarias en Causalidad: Para que los LLMs sean verdaderamente efectivos en la resolución de errores, necesitan mejorar su capacidad de razonamiento causal.
  • Posible Uso en Roles de Gestión: Dado su buen rendimiento en tareas de evaluación y supervisión, los LLMs podrían desempeñar roles de apoyo en la gestión de proyectos de software.

 Un Camino por Recorrer para los LLMs en la Ingeniería de Software

El estudio de OpenAI subraya que, si bien los LLMs han avanzado significativamente en su capacidad para asistir en el desarrollo de software, aún están lejos de reemplazar a los ingenieros humanos. Sus limitaciones en el entendimiento de la causalidad y en la resolución de problemas complejos destacan la necesidad de un enfoque colaborativo, donde la IA y los ingenieros trabajen juntos para lograr soluciones más eficaces y completas.

En última instancia, el futuro de la ingeniería de software no se trata de reemplazar a los humanos con IA, sino de potenciar el talento humano con herramientas avanzadas que mejoren la productividad y la precisión.

The post Los Modelos de Lenguaje Extenso (LLMs) Pueden Arreglar Errores, Pero No Encontrarlos: Un Estudio de OpenAI Destaca los Límites de la IA en la Ingeniería de Software appeared first on TecnoFuturo24.

]]>
Tesla lleva a Apple a juicio por accidente fatal relacionado con Autopilot https://tecnofuturo24.com/tesla-lleva-a-apple-a-juicio-por-accidente-fatal-relacionado-con-autopilot/ https://tecnofuturo24.com/tesla-lleva-a-apple-a-juicio-por-accidente-fatal-relacionado-con-autopilot/?noamp=mobile#respond Fri, 05 Apr 2024 01:40:44 +0000 https://tecnofuturo24.com/?p=3571 Tesla está enfrentando un nuevo juicio relacionado con un accidente fatal de…

The post Tesla lleva a Apple a juicio por accidente fatal relacionado con Autopilot appeared first on TecnoFuturo24.

]]>
Tesla está enfrentando un nuevo juicio relacionado con un accidente fatal de Autopilot, y busca involucrar a Apple en su defensa.

El fabricante de vehículos eléctricos está intentando demostrar que un ingeniero de Apple, Wei “Walter” Huang, estaba jugando a un videojuego en su teléfono cuando su Model X habilitado para Autopilot chocó contra una barrera de seguridad en 2018. La familia de Huang, que está demandando a Tesla por muerte injusta, alega que Tesla está colaborando secretamente con Apple para su defensa.

En una reciente moción previa al juicio, los abogados de la familia Huang acusaron a Apple de participar en un “trabajo secreto” para respaldar a Tesla en su defensa. Según la Junta Nacional de Seguridad del Transporte, un videojuego era la aplicación principal en el teléfono de Huang en el momento del accidente, aunque no pudieron determinar si estaba activamente involucrado en el juego.

Los registros del teléfono celular de Huang revelaron un patrón de juego activo en los días previos al accidente. Ahora, Tesla está presentando la declaración de un ingeniero de Apple, James Harding, para respaldar su caso. Los abogados de la familia Huang argumentan que esta declaración busca eludir el proceso de descubrimiento.

Este caso es una prueba crucial para la estrategia legal de Tesla, que sostiene que los accidentes con Autopilot son resultado de la falta de atención del conductor. La familia de Huang planea presentar evidencia contradictoria, citando declaraciones de ejecutivos e ingenieros de Tesla sobre el uso de Autopilot mientras revisaban correos electrónicos. Tesla, sin embargo, ha cuestionado la autenticidad de estas declaraciones.

The post Tesla lleva a Apple a juicio por accidente fatal relacionado con Autopilot appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/tesla-lleva-a-apple-a-juicio-por-accidente-fatal-relacionado-con-autopilot/feed/ 0