Kendaraan Tesla dalam mode beta ‘Full Self-Driving’ ‘rusak parah’ setelah kecelakaan di California

Tampaknya ini adalah kecelakaan pertama yang melibatkan fitur bantuan pengemudi baru Tesla yang kontroversial

Sebuah Tesla Model Y dalam mode beta “Full Self-Driving” (FSD) diduga jatuh pada 3 November di Brea, sebuah kota di tenggara Los Angeles, menandai apa yang mungkin menjadi insiden pertama yang melibatkan fitur bantuan pengemudi kontroversial perusahaan. Tidak ada yang terluka dalam kecelakaan itu, tetapi kendaraan itu dilaporkan “rusak parah.”

Kecelakaan itu dilaporkan ke Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional, yang memiliki banyak investigasi yang tumpang tindih ke dalam sistem Autopilot Tesla. Laporan insiden tampaknya dibuat oleh pemilik Model Y. Seorang juru bicara NHTSA tidak segera menanggapi permintaan komentar.

Menurut laporan:

Kendaraan dalam mode FSD Beta dan saat berbelok ke kiri mobil masuk ke jalur yang salah dan saya ditabrak oleh pengemudi lain di jalur di sebelah jalur saya. mobil memberi peringatan 1/2 jalan melalui belokan jadi saya mencoba memutar kemudi untuk menghindarinya masuk ke jalur yang salah tetapi mobil dengan sendirinya mengambil kendali dan memaksa dirinya ke jalur yang salah menciptakan manuver yang tidak aman menempatkan semua orang yang terlibat di mempertaruhkan. mobil rusak parah di sisi pengemudi.

Keputusan Tesla untuk menguji perangkat lunak https://www.tipsmonika.net bantuan pengemudi “Full Self Driving” dengan pemilik kendaraan yang tidak terlatih di jalan umum telah menarik banyak pengawasan dan kritik . Sepanjang, perusahaan telah meluncurkan – dan menarik kembali – beberapa pembaruan perangkat lunak yang dimaksudkan untuk meningkatkan sistem sambil juga mengatasi bug dalam perangkat lunak.

Ada banyak klip video yang diunggah secara online yang menunjukkan pemilik Tesla menggunakan FSD beta, dengan berbagai tingkat keberhasilan. Beberapa klip menunjukkan sistem bantuan pengemudi dengan percaya diri menangani skenario mengemudi yang rumit, sementara yang lain menggambarkan mobil melayang ke jalur yang salah atau membuat kesalahan serius lainnya.

Terlepas dari namanya, FSD bukanlah sistem penggerak otonom. Pengemudi diminta untuk tetap waspada, menjaga mata mereka di jalan dan tangan mereka di setir. Kendaraan dengan sistem mengemudi yang sangat otomatis yang masih memerlukan pengawasan manusia diklasifikasikan sebagai Level 2 di bawah taksonomi Society of Automotive Engineers. (Level 5 menggambarkan kendaraan yang dapat dikendarai di mana saja, dalam kondisi apa pun, tanpa pengawasan manusia.)

Pemerintah AS telah mengambil minat baru di Tesla, baru-baru ini mengumumkan bahwa mereka sedang menyelidiki insiden yang melibatkan mobil Tesla yang mengoperasikan Autopilot yang menabrak kendaraan darurat yang diparkir.

NHTSA juga mencari lebih banyak informasi dari Tesla tentang uji beta publik yang berkembang dari FSD, proses evaluasi “Skor Keamanan” yang baru-baru ini diluncurkan untuk memasuki program, dan perjanjian kerahasiaan Tesla membuat peserta mendaftar hingga saat ini.

Seorang juru bicara Tesla tidak menanggapi permintaan komentar – juga tidak mungkin setelah departemen pers mereka dibubarkan pada 2019.

You may also like...

Leave a Reply

Your email address will not be published. Required fields are marked *