1. HABERLER

  2. TEKNOLOJİ

  3. Google yapay zekanın ayrımcılığına savaş açıyor
Google yapay zekanın ayrımcılığına savaş açıyor

Google yapay zekanın ayrımcılığına savaş açıyor

Teknoloji devi Google, yapay zeka sistemini ayrımcılık ve ırkçılıktan korumak için TCAV (testing with concept activation vectors) adını verdiği yeni bir sistemi deniyor.

A+A-

Çağın en büyük teknolojik icatlarından biri olan yapay zeka, getirdiği  yeniliklerle beraber yarattığı sorunlarla da gündemde. Temelini derin öğrenme (deep learning) adı verilen bir sistemden alan  yapay zeka ürünler, internette bulunan mevcut verilerden öğrenerek kendi  davranışlarını geliştiriyor. Mevcut verilerde bulunan önyargı ve ayrımcılık gibi istenmeyen  özellikleri de öğrenen yapay zeka ürünler, geçmişte pek çok skandala da imza  atmıştı.

2016 yılında Microsoft tarafından geliştirilen ve Twitter'da kullanıcılarla etkileşim halinde olması hedeflenen yapay zeka hesap "Tay" çok  kısa bir süre içinde gerçek kullanıcıların tweetlerinden beslenerek ırkçı ve  islamofobik tweetler atmaya başlamış ve bu sebeple Microsoft, Tay'ın tweetlerine müdahale etmek zorunda kalmıştı.

Ayrımcılığın önüne geçme hedefi

Amerikan teknoloji sitesi CNET'te yer alan habere göre, Google Üst  Yöneticisi (CEO) Sundar Pichai, yapay zekayı besleyen verilerde bulunan ayrımcı  ön yargıları engellemek için harekete geçtiklerini bildirdi.

7 Mayıs'ta başlayan ve dün sona eren "Google I/O 2019" konferansında  konuşan Pichai, TCAV sistemi ile makine öğrenmesinin çalışma yöntemlerini analiz  ettiklerini ve yapay zekanın karar verme sistemlerindeki açıklarını düzeltmeye çalıştıklarını kaydetti.

Pichai, "TCAV, eğer bir yapay zeka beslendiği verilerden dolayı doktor  olmak için erkek olmak gerektiği gibi bir ön yargıya sahipse bu hatayı açığa  çıkarabiliyor." ifadesini kullandı.

HABERE YORUM KAT

UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.