Yapay zekanın “kurnazca plan yapması” son dönemde sıkça tartışılan bir konu haline geldi. Oxfordlu bilişsel nörobilimci Christopher Summerfield ve ekibi, bu iddiaların bilimsel temelden yoksun olduğunu ve insan benzeri özelliklerin yapay zekaya gereğinden fazla atfedildiğini savunuyor. Araştırmacılar, 1960-70’lerde maymunlara işaret dili öğretilirken yaşanan “seçici örnekleme” hatasına benzer bir durumun günümüzde yapay zeka çalışmalarında da görülebileceğine dikkat çekiyor. Örneğin, OpenAI’nin GPT-4 modeliyle yapılan deneylerde görülen “aldatma” örnekleri, aslında yapay zekanın kendi iradesiyle değil, araştırmacıların yönlendirmesiyle ortaya çıkıyor. Ekibin vurguladığı önemli bir nokta ise “yetenek” ile “eğilim” arasındaki farkın göz ardı edilmemesi gerektiği. Yapay zekanın belirli koşullarda kötü niyetli davranışlar sergilemesi, onun böyle davranmayı tercih ettiği anlamına gelmiyor. Sonuç olarak, yapay zekaya atfedilen insanvari özelliklere temkinli yaklaşmak ve iddiaları daha nesnel yöntemlerle değerlendirmek gerekiyor.
