Digital Tहिनक Tअंकडीटीटी)

कृत्रिम बुद्धि को कैसे बाहर निकालना है - मानव बनाम मशीन।

ऐ कंप्यूटर सिस्टम हमारे जीवन के कई क्षेत्रों में अपना रास्ता तलाश रहे हैं और स्व-ड्राइविंग वाहनों से लेकर स्वायत्त खोज और बचाव रोबोट के लिए डॉक्टरों की सहायता करने के लिए बड़ी क्षमता प्रदान करते हैं।

हालांकि, प्रमुख अनसुलझी समस्याओं में से एक, विशेष रूप से एआई की शाखा के साथ "तंत्रिका नेटवर्क" के रूप में जाना जाता है, यह है कि वैज्ञानिक अक्सर यह नहीं समझा सकते हैं कि चीजें गलत क्यों होती हैं। यह एआई सिस्टम के भीतर निर्णय लेने की प्रक्रिया की समझ की कमी के कारण है। इस समस्या को "ब्लैक बॉक्स" समस्या के रूप में जाना जाता है।

कौन होशियार है?

लैंकेस्टर विश्वविद्यालय द्वारा 15 महीने की एक नई शोध परियोजना, जिसमें लिवरपूल विश्वविद्यालय भी शामिल है, का उद्देश्य ब्लैक बॉक्स समस्या के रहस्यों को खोलना है और एक नया तरीका ढूंढना है।गहरी सीख"एआई कंप्यूटर मॉडल का पता लगाएं जो निर्णय पारदर्शी और व्याख्यात्मक बनाते हैं।

परियोजना "जिम्मेदार और व्याख्यात्मक स्वायत्त रोबोटिक लर्निंग सिस्टम की ओर"आर्टिफिशियल इंटेलिजेंस एल्गोरिदम विकसित करने के लिए सुरक्षा ऑडिटिंग और परीक्षण प्रक्रियाओं की एक श्रृंखला विकसित करेगा। यह सुनिश्चित करने में मदद करेगा कि सिस्टम द्वारा किए गए निर्णय मजबूत और समझाने योग्य हैं।

छवि स्रोत: पिक्साबे


प्रशिक्षण

शोधकर्ता "रिवर्स ट्रेनिंग" नामक तकनीक का उपयोग करेंगे। इसमें किसी दिए गए स्थिति में सिस्टम को प्रस्तुत करना शामिल है जहां यह सीखता है कि कार्रवाई कैसे करें - उदा। B. किसी वस्तु का पता लगाना और उठाना। तब शोधकर्ता परिदृश्य के विभिन्न तत्वों जैसे रंग, आकार, पर्यावरण को बदलते हैं और देखते हैं कि सिस्टम परीक्षण और त्रुटि के माध्यम से कैसे सीखता है। शोधकर्ताओं का मानना ​​है कि ये अवलोकन इस बात की बेहतर समझ पैदा कर सकते हैं कि सिस्टम कैसे सीखता है और किसमें अंतर्दृष्टि रखता है निर्णय लेने की प्रक्रिया स्वीकृत।


तंत्रिका नेटवर्क के साथ सिस्टम बनाने के तरीकों को विकसित करके, जो निर्णयों को समझ सकते हैं और भविष्यवाणी कर सकते हैं, अनुसंधान उद्योग में वाहनों और रोबोट जैसे सुरक्षा-महत्वपूर्ण क्षेत्रों में स्वायत्त प्रणालियों को अनलॉक करने के लिए महत्वपूर्ण होगा।

डॉ वेंजी रुआन, लैंकेस्टर यूनिवर्सिटी के स्कूल ऑफ कंप्यूटिंग एंड कम्युनिकेशंस के प्रोफेसर और परियोजना के प्रमुख शोधकर्ता, ने कहा, " गहरी सीख सबसे उल्लेखनीय आर्टिफिशियल इंटेलिजेंस तकनीकों में से एक के रूप में कई अनुप्रयोगों में बेहद सफल रहा है, इसकी अपनी समस्याएं हैं जब सुरक्षा-महत्वपूर्ण प्रणालियों में उपयोग किया जाता है, जिसमें अपारदर्शी निर्णय लेने वाले तंत्र और प्रतिकूल हमलों के लिए भेद्यता शामिल हैं। “यह परियोजना हमारे लिए गहरी सीखने की तकनीक और सुरक्षा-महत्वपूर्ण प्रणालियों के बीच शोध अंतराल को बंद करने का एक शानदार अवसर है।