Çince Odası Argümanı (genellikle Çin Odası Argümanı şeklinde çevrilmiş olsa da, düşünce deneyi bağlamında Çince Odası olarak çevrilmesi daha uygun görülmüştür), dijital bir bilgisayarın –ne kadar zeki ya da insansı davranışlar sergilerse sergilesin– bir “zihne”, “anlayışa” ya da “bilince” sahip olamayacağını savunur. Filozof John Searle tarafından “Minds, Brains, and Programs” adlı makalesinde öne sürülen bu argüman ilk kez 1980 yılında Behavioral and Brain Sciences dergisinde yayınlanmıştır. Çince Odası olarak bilinen düşünce deneyinin merkezini oluşturduğu argüman, yayınlandığı günden itibaren oldukça tartışılmıştır.
Argüman, –çok genel bir ifadeyle söyleyecek olursak– zihni formel semboller işleyen bir bilgi-işleme sisteminden ibaret gören işlevselcilik (functionalism) ve hesaplamacılık (computationalism) felsefi tutumlarına karşı çıkmaktadır Searle bu argümanla, özellikle doğru girdi ve çıktılara sahip uygun bir şekilde programlanmış bir bilgisayarın tıpkı insanların sahip olduğu gibi bir zihne sahip olabileceğini öne süren görüşe karşı çıkar. Bu görüşü güçlü yapay zekâ (strong AI) olarak isimlendirir ve karşı bir tutum olarak zayıf yapay zekâdan (weak AI) bahseder.
Searle’ün Çince Odası deneyinde temelde sorduğu soru şudur: Makine, kelimenin tam manasıyla Çince “anlayabilir” mi? Yoksa makinenin yaptığı sadece bir simülasyondan mı ibarettir? Searle’ün kavramlarıyla konuşacak olursak, ilk soruya evet cevabını verenler güçlü yapay zekâ tutumuna sahipken, ikinci soruya evet cevabını verenler zayıf yapay zekâ tutumunu savunmaktadır.