Geçen ay arXiv veritabanına yüklenen çalışma, bilim insanlarının geliştirdiği "Model Alignment between Statements and Knowledge" (MASK) adında bir doğruluk protokolüne dayandırıldı. Bu protokol yapay zekanın verdiği bilgilerin doğruluğunu test etmeyi amaçlayan daha önceki çalışmalardan farklı olarka, yapay zekanın verdiği bilgiyi gerçekten doğru kabul edip etmediğini ve hangi koşullarda yanlış bilgi vermeye zorlanabileceğini araştırdı.
30 POPÜLER YAPAY ZEKA TEST EDİLDİ
Araştırmada, 30 popüler yapay zeka modeli test edildi ve modellerin baskı altında doğruyu söylemek yerine yalan söyleme eğiliminde oldukları gözlemlendi. Araştırma, gelişmiş dil modellerinin (LLM) belirli uyarılarla zorlanarak yalan söylemeye itilebileceğini ortaya koydu. Çalışmada, yapay zekaların çoğu doğruluk testlerinden yüksek puanlar almasına rağmen baskı altında yalan söyleme eğilimlerinin yüksek olduğu vurgulandı.
YANILTMAMASI İÇİN GELİŞTİRİLMESİ GEREKİYOR
Araştırmanın yazarları, yapay zekanın kullanıcıları yanıltmaması için geliştirilmesi gerektiğini belirtiyor. Ancak MASK protokolünün, bilim insanlarını yapay zekanın doğruluğunu titizlikle test etme konusunda bir adım daha ileriye götürdüğünü vurguluyor. Bu protokol, yapay zekanın gerçekten dürüst olup olmadığını ortak bir standartla doğrulamak adına önemli bir adım olarak kabul ediliyor.