Logotipo de Zephyrnet

El Washington Post pregunta por qué el piloto automático de Tesla se puede utilizar en lugares donde no debería – CleanTechnica

Fecha:

REGÍSTRATE para actualizaciones diarias de noticias de CleanTechnica en el correo electrónico O Síguenos en Google Noticias!


Un artículo en el El Correo de Washington del 10 de diciembre de 2023 pregunta: si Tesla Autopilot no está diseñado para usarse en carreteras con tráfico cruzado, ¿por qué Tesla permite que se active en esas carreteras? Es una pregunta justa, que involucra una serie de factores, desde las actitudes de los reguladores federales hasta los deseos del hombre más rico del mundo. Alrededor del enfriador de agua en Limpia Techinca barra de jugos ultramoderna, hay mucho desacuerdo en este tema. El hecho de que el Publicación La historia solo ha estado publicada durante aproximadamente 12 horas y tiene más de 3,600 comentarios que atestiguan el nivel de interés (y controversia) asociado con este tema.

Piloto automático en un camino oscuro y solitario

La historia comienza con una pareja joven que sacó su Chevy Tahoe de la carretera cerca de Key Largo para mirar las estrellas. El Publicación dice: “Un Tesla que conducía en piloto automático se estrelló en una intersección en forma de T a aproximadamente 70 mph y arrojó a la joven pareja por el aire, matando a uno e hiriendo gravemente al otro. En imágenes de la cámara corporal de la policía obtenidas por el El Correo de Washington, el conductor sacudido dice que estaba “conduciendo en crucero” y apartó la vista de la carretera cuando se le cayó el teléfono.

Pero el accidente de 2019 revela un problema más profundo que la falta de atención del conductor, el Publicación dice. Ocurrió en un camino rural donde la tecnología Autopilot de Tesla no estaba diseñada para ser utilizada. Contenido de la cámara de tablero Capturado por el Tesla y obtenido exclusivamente por The Post muestra el automóvil pasando por alto una señal de alto, una luz parpadeante y cinco señales amarillas que advierten que la carretera termina y los conductores deben girar a la izquierda o a la derecha.

Quizás tengas una opinión sobre Elon Musk, Tesla y el cacareado Tecnología de piloto automático y si es así, bien por ti. Pero mira ese video y luego responde estas preguntas:

  • ¿Por qué se pudo activar el piloto automático en esa carretera?
  • ¿Por qué el piloto automático no pudo reconocer una intersección en T marcada por una señal de alto, una luz parpadeante y cinco señales amarillas?

Piloto automáticoEn manuales de usuario, documentos legales y comunicaciones con reguladores federales, Tesla ha reconocido que Autosteer, la característica clave de Autopilot, está "destinada a su uso en autopistas de acceso controlado" con "un divisor central, marcas de carril claras y sin tráfico cruzado". Tesla advierte a los conductores que la tecnología puede fallar en las carreteras si hay colinas o curvas cerradas, según su manual de usuario.

Aunque la empresa tiene la capacidad técnica para limitar la disponibilidad de Autopilot por geografía, ha tomado algunas medidas definitivas para restringir el uso del software. La pregunta es, ¿por qué? Si el coche sabe dónde está y en qué carretera se encuentra, ¿por qué no hay una disposición en el software que prohíbe que el piloto automático se active ¿En circunstancias en las que su uso podría resultar peligroso para conductores, pasajeros y peatones?

Los reguladores federales no están de acuerdo

Parte de la respuesta puede estar en una disputa interna entre la Junta Nacional de Seguridad del Transporte y la Administración Nacional de Seguridad del Tráfico en las Carreteras. Después del accidente de 2016 que mató al conductor del Tesla Model S, Joshua Brown, la NTSB pidió límites sobre dónde se podía activar la tecnología de asistencia al conductor. Pero como agencia puramente de investigación, no tiene poder regulatorio sobre Tesla. La NHTSA, que forma parte del Departamento de Transporte, tiene la autoridad para establecer normas de seguridad automovilísticas aplicables, pero su falta de acción ha dado lugar a una brecha inusual y cada vez más tensa entre las dos agencias.

En una entrevista en octubre, la presidenta de la NTSB, Jennifer Homendy, dijo que el accidente de 2016 debería haber estimulado a la NHTSA a crear reglas aplicables sobre dónde podría activarse la tecnología de Tesla. La inacción, afirmó, refleja “un verdadero fallo del sistema. Si el fabricante no va a tomar la seguridad en serio, le corresponde al gobierno federal asegurarse de defender a otros para garantizar la seguridad”, pero “la seguridad no parece ser la prioridad cuando se trata de Tesla. " Hablando de la NHTSA, Homendy añadió: "¿Cuántas personas más tienen que morir antes de que usted actúe como agencia?"

Eso ciertamente suena como un tiro cruzado en el arco de la NHTSA. En respuesta, la agencia dijo que “siempre agradece los aportes de la NTSB y los revisa cuidadosamente, especialmente cuando se consideran posibles acciones regulatorias. Como agencia regulatoria, de seguridad y de salud pública, la seguridad es nuestra principal prioridad”. Luego continuó diciendo que sería demasiado complejo y consumiría muchos recursos verificar que sistemas como el piloto automático de Tesla se utilizan dentro de las condiciones para las que fueron diseñados, y potencialmente no solucionaría el problema.

Homendy se mostró escéptico ante esa explicación, diciendo que las agencias y las industrias con frecuencia responden a las recomendaciones de la NTSB citando la imposibilidad de sus solicitudes, hasta que una carnicería adicional les obliga a actuar. La NHTSA dijo que, en cambio, se centra en garantizar que los conductores estén plenamente involucrados mientras utilizan sistemas avanzados de asistencia al conductor.

En casos judiciales y declaraciones públicas, Tesla ha argumentado repetidamente que no es responsable de los accidentes que involucran el piloto automático porque el conductor es el responsable en última instancia de la trayectoria del automóvil. Después de un accidente fatal en 2018, Tesla le dijo a la NTSB que los límites de diseño para el piloto automático no serían apropiados porque "el conductor determina el entorno operativo aceptable".

Steven Cliff, exjefe de la NHTSA que dejó la agencia el año pasado, dijo al El Correo de Washington El enfoque adoptado por los reguladores puede parecer demasiado cauteloso a veces, pero dijo que su agencia fue agresiva bajo su supervisión y exigió a empresas como Tesla que informaran sus datos sobre accidentes que involucran sistemas avanzados de asistencia al conductor. Pero avanzar desde la etapa de recopilación de datos hasta una norma final, donde se adoptan nuevas regulaciones si es necesario, puede llevar años. "La filosofía de Tesla es dejar que el operador determine por sí mismo qué es seguro, pero brindarle mucha flexibilidad para tomar esa determinación", dijo.

El piloto automático sabe dónde está

Cliff también dijo que Tesla podría limitar fácilmente dónde se puede implementar la tecnología. “El Tesla sabe dónde está. Tiene navegación. Sabe si está en una interestatal o en un área donde la tecnología no fue diseñada para ser utilizada”, dijo. "Si no fue diseñado para usarse allí, ¿por qué puedes usarlo allí?" Elon Musk una vez colgó al ex presidente de la NTSB, Robert Sumwalt, quien se retiró de la agencia en 2021 cuando Homendy asumió el cargo.

En 2020, la NTSB emitió un informe sobre otro accidente fatal de Tesla que citaba tanto a un conductor de camión que se saltó una señal de alto como a la "excesiva dependencia" del conductor de Tesla en el piloto automático como causas probables del accidente. La NTSB también tomó la novedosa medida de citar a la NHTSA por primera vez, diciendo que su fracaso en “desarrollar un método” que “limitara el uso de sistemas automatizados de control de vehículos a las condiciones para las que fueron diseñados” contribuyó al accidente. En 2021, la NTSB envió otra carta a la NHTSA sobre el piloto automático, pidiendo a la agencia que “incluya salvaguardias, protocolos y estándares mínimos de desempeño sensatos para garantizar la seguridad de los automovilistas y otros usuarios vulnerables de la carretera”.

En uno de sus últimos intentos de impulsar la acción, Homendy envió una carta directamente a Musk en agosto de 2021. Lo instó a implementar salvaguardias para “limitar” la tecnología a las condiciones para las que fue diseñada, entre otras recomendaciones. "Si realmente quiere poner la seguridad en primer plano en el diseño de vehículos Tesla", escribió, "lo invito a tomar medidas sobre las recomendaciones de seguridad que le emitimos hace cuatro años". Musk nunca respondió, dijo.

Abunda la controversia sobre el piloto automático

Mi abuelo irlandés siempre afirmó que la parte más peligrosa de cualquier automóvil es la tuerca detrás del volante. A los apologistas de Musk les gusta decir que Autopilot ha salvado a muchas más personas de las que han resultado perjudicadas. Los que odian a Musk, por otro lado, insinúan sombríamente que el piloto automático está diseñado para apagarse segundos antes de un accidente para que la compañía pueda decir con seriedad que el sistema no estaba activo en el momento del accidente. Probablemente ambos grupos tengan parte de razón.

Pero aquí es donde la cuestión se pone difícil. El hombre gravemente herido en los Cayos de Florida pregunta: “¿Cómo pueden permitir algo así en la carretera? Es como un arma mortal que circula por todas partes. Y la gente, los peatones como yo, ¿cómo se supone que vamos a saber cosas como esta? No debería permitirse”.

Más de una vez, la conversación en CleanTechnica se ha centrado no en los conductores de Tesla sino en los conductores y pasajeros de otros automóviles (y también en peatones y ciclistas) que no saben que son actores en una simulación por computadora gigante creada expresamente para el Gran y Poderoso Musk. ¿Quién habla por ellos? ¿Quién protege sus derechos? ¿Por qué se ven atraídos por la historia de Tesla sin su consentimiento?

Sin duda, nuestros lectores tengo mucho que decir sobre esos temas. No podemos esperar a leer tus comentarios.


¿Tiene algún consejo para CleanTechnica? ¿Quieres anunciarte? ¿Quiere sugerir un invitado para nuestro podcast CleanTech Talk? Contáctenos aquí.


Nuestro último vídeo de EVObsession

[Contenido incrustado]


No me gustan los muros de pago. No te gustan los muros de pago. ¿A quién le gustan los muros de pago? Aquí en CleanTechnica implementamos un muro de pago limitado por un tiempo, pero siempre nos pareció mal y siempre fue difícil decidir qué deberíamos poner ahí. En teoría, tu mejor y más exclusivo contenido va detrás de un muro de pago. ¡¡Pero entonces menos gente lo lee!! Por eso, hemos decidido eliminar por completo los muros de pago aquí en CleanTechnica. Pero…

 

Al igual que otras empresas de medios, ¡necesitamos el apoyo de los lectores! Si nos apoyas, por favor aporta un poco mensualmente para ayudar a nuestro equipo a escribir, editar y publicar 15 historias sobre tecnologías limpias al día.

 

¡Gracias!


Anuncio



 


CleanTechnica utiliza enlaces de afiliados. Ver nuestra política esta página.


punto_img

Información más reciente

punto_img