در حالي كه فناوري روباتها روز به روز پيشرفت ميكند، اين پرسش به وجود ميآيد كه آيا رايانه و روباتها حقيقت را به انسانها ميگويند؟ يا اينكه آنها بايد در عين حال كه ياد ميگيرند با انسانها صادق باشند، ياد بگيرند كه همچون انسانها به يكديگر دروغ بگويند؟ طرح اين پرسش واكنشهاي مختلفي را به دنبال دارد و از اينرو موجب شده است تا تحقيقات و مطالعات گستردهاي در اين زمينه صورت گيرد. البته اين موضوع به سالها قبل بازميگردد و در واقع دانشمندان سالهاست كه به مقوله امكان بروز انحرافات رفتاري در روباتها و روي آوردن به بعد شخصيتي نظير دروغگويي توجه ميكنند و از اين بابت نگران هستند كه در آينده و با گسترش دامنه فعاليت روباتهاي كاملا خودكار، هرگونه رفتار برنامهريزي نشده و درعين حال گمراهكننده از سوي آنها سر بزند.
به تازگي در يكي از آزمايشگاههاي پيشرفته تحقيقاتي در سوئيس، آزمايش جالب توجهي صورت گرفت. در اين آزمايش نزديك به يك هزار روبات در حالي به كار گرفته شدند كه به حسگرهايي نصب شده بر روي صورت و رو به جهت پايين مجهز بودند. آنها با هدف به دست آوردن غذا براي رقابتي هيجان انگيز آماده شده بودند! البته غذايي كه آنها براي به دست آوردن آن تلاش ميكردند در حقيقت حلقه آبي رنگي بود كه بر روي كف سالن برگزاري آزمايش قرار گرفته بود. همزمان و در گوشهاي ديگر از سالن حلقه تيره رنگي به عنوان «سم» قرار داشت. روباتهايي كه در اين آزمايش به كار گرفته شده بودند به ازاي هر بار حضور در نزديكي غذا و نه سم، امتياز دريافت ميكردند.
سارا ميتري و داريو فلورنو از دانشگاه لوزان سوئيس كه هدايت اين پروژه را در دست داشتند معتقدند كه با استفاده از نتايج مطالعاتي از اين دست ميتوان در خصوص روباتها به نگرش تازهاي دست يافت. آنها براي دستيابي به اين منظور امكان منحصربهفردي را در اختيار روباتها قرار دادند كه بر اساس آن آنها ميتوانستند با يكديگر صحبت كنند. در اين آزمايش هر روبات ميتواند نوري آبي رنگ از خود توليد كند كه از سوي ساير روباتها قابل ديدن است. البته روباتها ميتوانند با استفاده از اين نور به نوعي روباتهاي ديگر را در پيدا كردن مكان دقيق غذا (حلقه آبي رنگ) دچار اختلال كنند. نكته حيرت انگيز اين بود كه با گذشت زمان روباتها در قالب نوعي فرآيند تكاملي ياد ميگرفتند تا در يافتن مكان دقيق حلقه آبي، يكديگر را فريب دهند!
عقيده بر اين است كه تكامل آنها احتمالا به وسيله شبكه نوروني مصنوعي صورت ميگيرد كه هر يك از روباتها را تحت كنترل خود دارد. اين شبكه شامل 11 نورون است كه به حسگرهاي هر روبات متصل است. 3 مورد از اين نورونها وظيفه دارند تا دو مسير حركتي روبات و انتشار نور آبي آن را كنترل كنند.
اين نورونها به واسطه 33 رابط يا سيناپس به يكديگر متصل ميشوند البته قدرت اين رابطها به وسيله يك تك ژن 8 بيتي كنترل ميشود. در كل ژنوم 264 بيتي هر روبات تشخيص ميدهد كه چگونه به اطلاعاتي كه حسگرهايش دريافت كرده است واكنش نشان دهد. اما شكل و شمايل مسابقهاي كه در آن روباتها و امكان رواج فريب و دروغگويي در بين آنها مورد بررسي قرار گرفت نيز در نوع خود جالب توجه بود. محققان براي اين منظور سيستمي از بازي چند راندي را ارائه كردند كه در آن گروههايي متشكل از 10 روبات براي به دست آوردن حلقه آبي (غذا) در نقاط مختلف به رقابت با يكديگر ميپرداختند. پس از برگزاري 100 راند از مسابقه، روباتهايي كه بالاترين امتيازات را كسب كرده بودند اين امكان را پيدا كردند تا در راند بعدي شركت كنند.
در آغاز مسابقه، روباتها نور آبي را به صورت تصادفي توليد ميكردند. با اين حال همزمان با اين كه روباتها در يافتن غذا (حلقه آبي) داراي عملكرد بهتري ميشدند، انتشار نور آبي از سوي آنها نيز بيشتر و در عين حال به نوعي با آگاهي وسيعتري صورت ميگرفت و جالب اين بود كه در اين حالت روباتها بيشتر به انجام اين كار خو گرفته بودند. نتايج اين مطالعه تحقيقاتي كمسابقه براي دانشمندان حيرتانگيز بوده است و به گفته برخي از آنها، حتي ميتوان آن را به عنوان سرآغازي جهت متمركز شدن روي مقولهاي تحت عنوان «انحراف در رفتار روباتها» دانست. بحث و بررسي درخصوص رفتارهاي مختلف روباتها و اين كه ممكن است انحرافاتي نيز در آنها به وجود آيد صرفا به سالهاي اخير مربوط نميشود. نويسندگان و پديدآورندگان رمانهاي علمي تخيلي پيش از اين نيز ايدهاي همچون امكان دروغگويي هوش مصنوعي به پديدآورندگانشان را مطرح كردهاند. در اين ميان نام آرتور سي كلارك همواره با چنين ايدههايي گره خورده است. او رماني معروف منتشر ميكند كه بعدها فيلمي بر مبناي آن ساخته ميشود كه در آن روباتي به نام هال يكي از فضانوردان را به قتل ميرساند.
در حال حاضر و گرچه درباره مقولهاي همچون دروغگويي در روباتها مباحث ضد و نقيض متعددي وجود دارد با اين حال بايد پذيرفت كه انسانها همواره به يكديگر دروغ ميگويند و البته روباتها نيز براي زندگي در بطن چنين پديده شومي طراحي و ساخته ميشوند. آنها وظيفه دارند تا با انسانها زندگي كنند و در تعامل كامل با ساختار زندگي انساني باشند، اما آيا آنها اين اجازه را پيدا خواهند كرد كه به يكديگر و حتي انسانها دروغ بگويند؟
ابتكاري كه در دانشگاه لوزان سوئيس براي بررسي امكان دروغگويي در جوامع روباتيكي انجام شد، بخشي از تلاش جهاني است كه به نظر ميرسد در سالهاي آينده و همزمان با توسعه فناوري روباتها و راه يافتن آنها به گوشه گوشه زندگي بشري، ابعاد گستردهتري به خود خواهد گرفت. دانشمنداني كه روي نسل جديد روباتهاي خودكار و تصميمگيرنده كار ميكنند، در كنار تلاشهاي خود براي افزايش قابليتها و كارآمدي اين روباتها اين نگراني را نيز دارند كه استفاده از اين سازهها در موارد بسيار حساس و تعيينكننده نظير فضاپيماها و نظاير آنها به واسطه امكان دروغگويي و بروز انحرافاتي در عملكردشان با دردسرآفريني و در ابعادي بزرگتر با فجايع مختلفي همراه شوند.
محققان پروژه اخير در دانشگاه لوزان، اين برنامه ابتكاري را روي حدود يك هزار روبات انجام دادند و در پايان به اين اطمينان خاطر رسيدند كه بايد روي احتمالي همچون دروغگويي و فريب در ميان جوامع روباتيكي حساس بود. از اين رو گفته ميشود در برخي دانشگاهها و مراكز آموزشي جهان كه به مقوله هوش مصنوعي و سازههاي روباتيكي كاملا خودكار توجه ويژهاي ميشود، مبحث جديدي تحت عنوان «رفتارشناسي روباتها» نيز مورد توجه گيرد. در اين مبحث احتمال بروز هر گونه انحراف رفتاري در روباتها ازجمله دروغپردازي در آنها مورد بررسي قرار ميگيرد. دانشمنداني در دانشگاههاي كاليفرنيا و لوزان كه روي توسعه فناوري هوش مصنوعي متمركز شدهاند معتقدند كه روانشناسي روباتها همپا با توسعه نرمافزاري و سختافزاري آنها به يك ضرورت مهم تبديل شده است تا صرفا يك انتخاب فانتزي.
منبع: live science
زهرا شفاعت
جام جم