Siteler Analizi

Siteler Analizi

Tesla, Model 3 üretimini durdurdu, BuzzFeed ilk bildirildi. Bununla birlikte, bu, Tesla'nın Model 3 için planlanan duruş süresinin bir parçası gibi görünüyor.



Tesla sözcüsü Şubat ayında ve yine bugün TechCrunch'a yaptığı açıklamada, “Model 3 üretim planımız, hem Fremont hem de Gigafactory 1'de planlı kesinti sürelerini içerir” dedi. 


“Bu periyotlar, otomasyonun iyileştirilmesi ve üretim oranlarının arttırılması için darboğazların sistematik olarak ele alınması için kullanılıyor. Bu alışılmadık değildir ve aslında böyle üretim rampalarında yaygındır. ”

Bu kısa bir süre sonra Tesla CEO'su Elon Musk otomobillerin üretimini otomatize ettiğini kabul ettikten sonra gelir.

“Evet, Tesla'daki aşırı otomasyon bir hataydı,” Musk siteler analizi birkaç gün önce tweet attı. Kesin olmak benim hatam. İnsanlar çok azdır. ”

Bu kabul, Bernstein analistlerinden Max Warburton ve Tesla'nın 3 numaralı modelin nihai üretiminde otomasyonun aşırı ısındığını savunan Toni Sacconaghi'yi takip etti.


Geçtiğimiz Ağustos ayında Tesla, 2017 yılı sonunda haftada 5.000 Model 3 araç üreteceğini tahmin etti. Tesla bu sayıyı ayarladı. Ocak ayında Tesla, bu çeyreğin haftada 2,500 Model 3 otomobil ile sona ermesini beklediğini ve bunun da Q2'nin sonunda haftada 5.000 seviyesine ulaşmasını beklediğini söyledi.

Bu ayın başlarında Tesla, Q1'deki haftalık Model 3 üretim oranını iki katına çıkarabildiğini belirterek, “ekipmanı iyileştirmek için birkaç kısa fabrika kapatma da dahil olmak üzere, üretim ve tedarik zinciri darboğazlarına hızla hitap ediyor.”

Makine öğrenimi ve bunun sonucunda ortaya çıkan ilginç AI modelleri ile ilgili araştırmalar günümüzde popüler konulardır. Ancak, bu sistemleri zayıflatmak için çalışan bilim adamlarının bir tür gölge dünyası var - değersiz olduklarını göstermek için değil, zayıflıklarını korumak için. Yeni bir belge, hassas görüntü tanıma modellerinin, tanımlamak istedikleri resimlerin en basit renk manipülasyonlarına ne kadar olduğunu göstererek bunu göstermektedir.

Bu, bilgisayar vizyonunun derin bir suçsuzluğu değildir - görüntü tanıma sistemlerini “dövmek” teknikleri, özellikle kötü performans gösterdikleri durumlar kadar kolay karakterize edilebilir. Bazen bu şaşırtıcı derecede basit bir şey: örneğin bir görüntüyü döndürmek veya çılgın bir etiket eklemek. Bir sistem belirli bir manipülasyonda özel siteler analizi olarak eğitilmediyse veya bunun gibi ortak varyasyonları kontrol etme emirleri olmadıkça, hemen hemen başarısız olacaktır.

Bu durumda, Grappa öğrencisi Hossein Hosseini liderliğindeki Washington Üniversitesi'nden bir araştırma. Onların "düşmanca" görüntüleri benzer şekilde basitti: renkleri aç.


Muhtemelen birçoğunuz bir görüntü işleme programında dolaşırken buna benzer bir şey denediniz: bir resimdeki “ton” ve “doygunluk” değerlerini değiştirerek, birinin yeşil deriye sahip olmasını sağlayabilirsiniz, bir muz mavi gibi görünür. Araştırmacıların yaptıkları tam olarak buydu: topuzları kıvırdı, böylece bir köpek biraz sarı görünüyordu, bir geyik morumsu görünüyordu, vb.

Orijinal görüntüler soldadır; renk kaydırmalı sürümler ve sistemlerin en iyi tahminleri sağda.

Öte yandan, piksellerin “değeri” ne göre, ne kadar açık ya da karanlık olduğu anlamıyla değiştirilemezdi, yani görüntüler hala garip renklerde olduğu gibi görünür.

Ama bir kedi bir kediye benzese de bize gri veya pembe olursa olsun, gerçekten derin bir sinir ağı için aynı şeyi söyleyemezsiniz. Test ettikleri modelin doğruluğu, normal olarak kolayca tanımlayacağı renk ayarlı resimlerin setlerinde yüzde 90 oranında azaltıldı. En iyi tahminleri, doğru şekilde gördüğünüz gibi oldukça rasgele. Renklerin değiştirilmesi sistemin tahminini tamamen değiştirir.

Ekip birkaç modeli test etti ve hepsi renk kaydırmalı sette bozuldu, bu yüzden bu özel sistemin bir sonucu değildi.


Düzeltmek çok zor değil - bu durumda, gerçekten yapmanız gereken tek şey, etiketlenmiş, renk kaydırmalı görüntüleri eğitim verilerine ekleyebilmektir, böylece sistem bunlara önceden maruz kalır. Bu ek, başarı oranlarını makul (eğer hala oldukça zayıfsa) seviyelere geri getirdi.

Ama asıl nokta bilgisayar görüş sistemlerinin temelde renkte ya da bir şeyde kötü olmadığını gösteriyor. Doğruluğunu bozacak ya da bozacak bir görüntü ya da videoyu incelikle ya da kastetmeyecek pek çok yol var.

“Derin ağlar eğitim verilerinin dağılımını öğrenmede (veya daha iyi ezberlemede) çok iyidir” diye yazdı Hosseini, TechCrunch'a bir e-postayla. “Ancak, bunun ötesinde neredeyse genelleştirilemezler. Dolayısıyla, modeller artırılmış verilerle eğitilse siteler analizi bile, muhtemelen modeli kandırabilecek yeni bir çeşit yıkıcı imgeler bulabiliriz. ”

Renk değişimlerini yakalamak için eğitilmiş bir model, ilgi alanına dayalı saldırgan imgelere karşı savunmasız olabilir ve bunun tersi de geçerlidir. Bu sistemlerin şu anda oluşturulma ve kodlanma şekli, bu tür saldırıları önlemek için yeterince güçlü değildir. Ancak onları kataloglayarak ve herkese karşı değil, her şeye karşı koruyan iyileştirmeler geliştirerek, en ileri teknolojiyi geliştirebiliriz.

Yorumlar