आपके मित्र-परिवार नेटवर्क और कृत्रिम तंत्रिका नेटवर्क के बीच क्या है समानता? जानें
x

आपके मित्र-परिवार नेटवर्क और कृत्रिम तंत्रिका नेटवर्क के बीच क्या है समानता? जानें

साल 1943 में न्यूरोफिज़ियोलॉजिस्ट वॉरेन मैकुलोच और तर्कशास्त्री वाल्टर पिट्स ने प्रस्तावित किया कि मानव मस्तिष्क में न्यूरॉन्स कैसे काम करते हैं?


McCulloch-Pitts neuron model: कल्पना कीजिए कि आप अपने परिवार के साथ डिनर के लिए बाहर जा रहे हैं. क्या आपको पिज्जा, मुगलई या चाइनीज खाना चाहिए? ये चीज जरूर आप अपने साथी, बेटी और बेटे से पूछेंगे. क्योंकि दूसरों की राय भी मानी जाएगी. अब मुद्दा यह है कि किस रेस्टोरेंट में जाना है. आपका बेटा दावा करता है कि उसके दोस्तों ने एक नए रेस्टोरेंट की सिफारिश की है. लेकिन आप सुनिश्चित होना चाहते थे. आप अपने तीन दोस्तों से सलाह लेते हैं और उनकी प्रतिक्रिया पूछते हैं. हालांकि, आप कुछ दोस्तों पर ज़्यादा भरोसा कर सकते हैं. क्योंकि उन्हें बढ़िया खाने के मामले में काफ़ी विशेषज्ञता हासिल है. उदाहरण के लिए, मान लीजिए रुबीना आंटी बढ़िया खाने की शौकीन हैं. उस स्थिति में, उनकी सलाह दादाजी राम से तीन गुना ज़्यादा मूल्यवान है, जिन्हें आप जानते हैं कि अच्छे खाने के मामले में वे अनभिज्ञ हैं. रुबीना के पास तीन 'नहीं' वोट हैं. जबकि राम और रॉबर्ट के पास एक 'हां' है. आप उस खाने की दुकान से दूर रहने का फ़ैसला करते हैं. मैक्कुलोच-पिट्स न्यूरॉन मॉडल यह मानता है कि जब इनपुट एक सीमा से अधिक हो जाता है तो एक विशेष न्यूरॉन 'फायर' करता है.

साल 1943 में न्यूरोफिज़ियोलॉजिस्ट वॉरेन मैकुलोच और तर्कशास्त्री वाल्टर पिट्स ने प्रस्तावित किया कि मानव मस्तिष्क में न्यूरॉन्स इस तरह से काम करते हैं. यह क्रांतिकारी न्यूरॉन मॉडल, जिसे अब मैकुलोच-पिट्स न्यूरॉन के रूप में जाना जाता है, ने न्यूरॉन्स को लॉजिक गेट्स के रूप में देखा और न्यूरल नेटवर्क को डिजिटल सर्किट के रूप में दर्शाया.

शोधकर्ताओं ने इस विचार के आधार पर डीप न्यूरल नेटवर्क आर्टिफिशियल इंटेलिजेंस एल्गोरिदम विकसित किया है. न्यू जर्सी में प्रिंसटन विश्वविद्यालय के जॉन हॉपफील्ड और कनाडा में टोरंटो विश्वविद्यालय के जेफ्री हिंटन, जिन्होंने इस क्षेत्र में महत्वपूर्ण योगदान दिया है, को संयुक्त रूप से 2024 में भौतिकी में नोबेल पुरस्कार से सम्मानित किया गया है “आर्टिफिशियल न्यूरल नेटवर्क के साथ मशीन लर्निंग को सक्षम करने वाली मूलभूत खोजों और आविष्कारों के लिए”.

न्यूरॉन की गणना

एक न्यूरॉन में तीन मुख्य भाग होते हैं: डेंड्राइट, एक एक्सॉन और एक सेल बॉडी या सोमा, ठीक वैसे ही जैसे एक पेड़ में शाखाएं, जड़ें और एक तना मौजूद होते हैं. डेंड्राइट द्वारा अन्य न्यूरॉन्स से संदेश प्राप्त किए जाते हैं, जो सेल बॉडी के छोटे, शाखाओं वाले विस्तार होते हैं, ठीक वैसे ही जैसे दोस्तों और रिश्तेदारों से सिफ़ारिशें प्राप्त की जाती हैं. मस्तिष्क कोशिका का केंद्रक कोशिका शरीर में समाहित होता है, जिसे सोमा के रूप में जाना जाता है, जहां चयापचय (मेटाबॉलिज्म) गतिविधि होती है. सिफ़ारिशों को संश्लेषित किया जाता है और एक निर्णय लिया जाता है, जो सोमा में डेंड्राइट द्वारा प्राप्त जानकारी को संसाधित करने के बराबर होता है. एक्सॉन की शुरुआत सोमा द्वारा की जाती है. यदि ट्रिगर किया जाता है, तो एक्सॉन पड़ोसी न्यूरॉन्स को एक्शन पोटेंशिअल के रूप में जाने जाने वाले विद्युत संकेतों को वितरित करता है. एक्सॉन टर्मिनल या सिनेप्स एक न्यूरॉन से दूसरे न्यूरॉन तक सिग्नल ले जाते हैं. कृत्रिम न्यूरॉन्स इनपुट, प्रोसेसिंग और आउटपुट के साथ जैविक न्यूरॉन्स के कार्य की नकल करते हैं.

मैककुलोच-पिट्स मॉडल में एक न्यूरॉन द्वारा अपने आसपास के न्यूरॉनल कोशिकाओं से संकेत प्राप्त किए जा सकते हैं. फिर आवेगों को मिश्रित करके अन्य न्यूरॉन्स तक पहुंचाया जा सकता है. हालांकि, न्यूरॉन्स अलग-अलग पड़ोसियों से संकेतों को अलग-अलग तौलते हैं, जैसे कि रुबीना को राम से ज़्यादा वज़न दिया गया था.

आप अपने दोस्तों और परिवार की राय पर विचार करने के बाद कोई निर्णय लेते हैं. इसी तरह कृत्रिम और जैविक तंत्रिका नेटवर्क में न्यूरॉन अपने पड़ोसियों से संकेतों को एकीकृत कर सकते हैं और उन्हें अन्य न्यूरॉन्स को भेज सकते हैं. जब आपके दोस्तों के वोट एक सीमा को पार करते हैं तो आप सिफ़ारिश स्वीकार करते हैं. इसी तरह, जब संयुक्त संकेत एक सीमा को पार करते हैं तो न्यूरॉन सक्रिय होता है. आप अपने दोस्तों से उचित सिफ़ारिशों की कमी के कारण अपने बेटे की रेस्तरां की सलाह को नज़रअंदाज़ करना चुनते हैं. इसी तरह, जब संयुक्त संकेत सीमा से नीचे गिरते हैं, तो न्यूरॉन सक्रिय नहीं होते हैं. यह मैककुलोच-पिट्स तंत्रिका मॉडल का एक बुनियादी व्यंग्य है.

कृत्रिम तंत्रिका नेटवर्क

कृत्रिम तंत्रिका नेटवर्क (एएनएन) को मस्तिष्क में न्यूरॉन्स के समान व्यवहार करने के लिए डिज़ाइन किया गया है. जबकि जैविक तंत्रिका नेटवर्क में जैविक न्यूरॉन्स होते हैं, कृत्रिम तंत्रिका नेटवर्क विभिन्न तरीकों से युग्मित डिजिटल न्यूरॉन्स/परसेप्ट्रॉन का उपयोग करते हैं. आपने अपने दोस्तों द्वारा दिए गए संकेतों के आधार पर अपनी बेटी के जन्मदिन के जश्न के लिए जाने वाले रेस्तरां का फैसला किया. किसी समय, आपके मित्र और परिवार के सदस्य आपसे सलाह ले सकते हैं. शायद राखी, आपकी ऑफिस की सहकर्मी, आपके सुझावों पर विचार करेगी और अब आपके अनुभव को महत्व दिया जाएगा. जैसे-जैसे आप अनुभव प्राप्त करेंगे, रुबीना कुछ महीनों बाद आपसे सलाह ले सकती है, जिससे एक चक्रीय संबंध बन सकता है.

इसके अलावा अलग-अलग अवसरों के लिए पूरी तरह से अलग सेटिंग और भोजन की आवश्यकता हो सकती है. समय के साथ, आप और आपके दोस्त विभिन्न रेस्तरां और उनके द्वारा परोसे जाने वाले व्यंजनों के बारे में सामूहिक राय बना लेंगे. इस खाने की दुकान में पिज़्ज़ा तो अच्छा है. लेकिन कॉफ़ी खराब है. 'वह महंगा है और खाना भी घटिया है.' इस छवि में प्रत्येक वृत्त एक 'न्यूरॉन' है. यह 'न्यूरॉन'/ 'नोड्स' से इनपुट प्राप्त करता है, मानों को जोड़ता है और यदि मान सीमा से अधिक है, तो 'फायर' करता है. नेटवर्क इनपुट परत द्वारा सक्रिय होता है और अंत में अंतिम परत में आउटपुट उत्पन्न होता है.

आपके और आपके दोस्तों और परिवार के बीच का नेटवर्क एक न्यूरल नेटवर्क जैसा है. आप में से हर कोई एक न्यूरॉन है और आपका कनेक्शन और वेटेज 'नेटवर्क' बनाता है. खाने के शौकीनों के एक नेटवर्क के रूप में, अब आपके पास कई आयोजनों और व्यंजनों के लिए उपयुक्त अच्छे और खराब खाने के विकल्पों का एक पैटर्न है. व्यक्तिगत न्यूरॉन्स हमेशा एक व्यक्ति की सिफारिश की तरह सबसे अच्छे परिणाम नहीं दे सकते हैं. जादू पैटर्न और उनके बीच संबंधों की ताकत में है.

भौतिकशास्त्री जॉन हॉपफील्ड ने भौतिकी के सिद्धांतों का उपयोग करके आवर्ती तंत्रिका नेटवर्क की जांच की. आवर्ती तंत्रिका नेटवर्क में, डेटा को कई बार तंत्रिका नेटवर्क में वापस भेजा जाता है और फिर से संसाधित किया जाता है. उन्होंने उनकी गतिशीलता पर ध्यान केंद्रित किया: समय के साथ नेटवर्क में क्या होता है?

हॉपफील्ड नेटवर्क

हॉपफील्ड नेटवर्क एक कृत्रिम तंत्रिका नेटवर्क है, जिसे इस प्रकार समझा जा सकता है कि मित्रों का एक समूह किसी साझा घटना को कैसे याद रखता है, जैसे कि आदर्श रेस्तरां का चयन करना. कल्पना कीजिए कि आप और आपके दोस्त दोस्तों और परिवार के लिए साल के अंत में पार्टी आयोजित करने पर चर्चा कर रहे हैं. आप में से कुछ को विभिन्न रेस्तरां और उनके मेनू के तत्व याद हैं. जैसे कि किसके पास ज़्यादा बड़ा डाइनिंग हॉल है, कौन से व्यंजन परोसे जाते हैं और उनका स्वाद कैसा होता है. भले ही आप में से कुछ को हर विवरण याद न हो. लेकिन आप जो याद रखते हैं उसे साझा करके अंतराल को भरने में एक-दूसरे की सहायता कर सकते हैं.

हॉपफील्ड नेटवर्क दोस्तों के एक समूह जैसा दिखता है. प्रत्येक मित्र नेटवर्क में एक न्यूरॉन की तरह काम करता है. कई खाद्य प्रतिष्ठानों की स्मृति हॉपफील्ड नेटवर्क द्वारा संग्रहीत पैटर्न के समान है. पार्टी के बारे में बात करना नेटवर्क को सक्रिय करने जैसा है; हर कोई वही बात सामने लाता है जो उन्हें याद है. भले ही कुछ तत्व गायब हों या उलझे हुए हों, यह प्रवचन आपको अनुभवों की अपनी यादों को सहयोगात्मक रूप से फिर से बनाने की अनुमति देगा. संक्षेप में, हॉपफील्ड नेटवर्क यादों (पैटर्न) को इस तरह से संग्रहीत करता है कि यह उन्हें पुनर्प्राप्त कर सकता है भले ही इनपुट खंडित या शोरगुल वाला हो (उदाहरण के लिए, यदि आप केवल रेस्तरां और उनके मेनू के घटकों को याद करते हैं). यह संपूर्ण यादों को पुनः प्राप्त करने में सहायता के लिए न्यूरॉन कनेक्शन (दोस्ती कनेक्शन के समान) का उपयोग करता है.

बैकप्रोपेगेशन

जेफ्री ई. हिंटन, डेविड ई. रूमेलहार्ट और रोनाल्ड जे. विलियम्स ने 1986 में 'लर्निंग रिप्रेजेंटेशन्स बाय बैक-प्रोपेगेटिंग एरर्स' शीर्षक से एक ऐतिहासिक कार्य जारी किया. उन्होंने इस सीखने की तकनीक को लोकप्रिय बनाया, जिससे उन्हें वास्तविक और वांछित आउटपुट के बीच असमानता को कम करने के लिए नेटवर्क के कनेक्शन के भार को बार-बार बदलने की अनुमति मिली. आपने रेस्टोरेंट को इसलिए अस्वीकार कर दिया क्योंकि आपने रुबीना आंटी को खाने की पसंद के मामले में 3 अंक दिए थे. हालांकि, आपको एहसास हो सकता है कि वह हमेशा सभी व्यंजनों के मामले में उतनी मजबूत नहीं होती. शायद रयान की चीनी व्यंजनों में अधिक परिष्कृत प्राथमिकताएं हैं. जबकि राखी पिज्जा में बेहतरीन है. अब आपको एहसास होता है कि आपको अपने अनुभव के हिसाब से उसका वजन 3 से घटाकर 2.8 करना होगा. इसी तरह, आपको पता चल सकता है कि जब बिरयानी की बात आती है तो रॉबर्ट भी बढ़िया खाने के पारखी हैं और उनकी सिफ़ारिशें दादाजी राम की सिफ़ारिशों से लगभग 1.5 गुना ज़्यादा मूल्यवान हैं. समय के साथ अपने अनुभवों के आधार पर आप इष्टतम प्राप्त करने के लिए वज़न बदलते हैं. इसे बैकप्रोपेगेशन कहा जाता है.

अंतिम परिणाम के आधार पर, आप पिछले चरणों की समीक्षा करते हैं और सुधार करते हैं. यदि आप चाहते हैं कि कृत्रिम तंत्रिका नेटवर्क रोमांचक कार्य करें तो आपको कृत्रिम न्यूरॉन्स के बीच कनेक्शन के लिए उचित भार निर्धारित करना होगा. प्रशिक्षण डेटासेट पर नेटवर्क के प्रदर्शन के आधार पर भार का चयन करने के लिए बैकप्रोपेगेशन आवश्यक है. डीप न्यूरल नेटवर्क को प्रशिक्षित करने से मदद मिलती है. उदाहरण के लिए जब हम व्हाट्सएप में टाइप करते हैं तो शब्दों का ऑटोकम्प्लीशन और ऑटोकरेक्शन होता है, यह प्रशिक्षण है. पहले तो यह परेशान करने वाला होता है. लेकिन बाद में आपका व्हाट्सएप इतना अच्छी तरह से प्रशिक्षित हो जाता है कि यह टाइपिंग का समय बचाता है. प्रत्येक कनेक्शन का भार तब तक समायोजित किया जाता है, जब तक कि अनुमानित मूल्य और वास्तविक मूल्य लगभग समान न हो जाएं.

डीप न्यूरल नेटवर्क (डीएनएन)

आइए हम रेस्टोरेंट के निर्णय के उदाहरण पर नज़र डालें. सबसे पहले, आप अपने भोजन का चयन करते हैं, जिसमें आपका साथी और दो बच्चे शामिल होते हैं. एक बार जब आप कोई व्यंजन चुन लेते हैं तो आप अपने दोस्तों से उपयुक्त भोजनालयों के बारे में सुझाव मांगते हैं. इनपुट और आउटपुट के अलावा, इस नेटवर्क में दो परतें हैं. आप एक व्यंजन पर निर्णय लेकर शुरू करते हैं और फिर अपने विकल्पों को सीमित करते हैं. हालांकि, अन्य विचार भी हैं. आपके द्वारा चुनी गई कुछ जगहें दूर हैं. लेकिन टेबल आसानी से उपलब्ध हैं; अन्य नज़दीक हैं, लेकिन प्रतीक्षा समय लंबा है. आप अपना वजन डालते हैं. फिर एक स्थान है जहां जन्मदिन मनाने के लिए सुखद माहौल है. एक और प्रतिष्ठान जहां व्यंजन उत्कृष्ट हैं. तीसरा एक जीवंत स्थान है. कुछ महंगे हैं. जबकि अन्य किफ़ायती हैं.

रेस्तरां के विकल्पों को मॉड्यूल में व्यवस्थित किया जा सकता है, जिनमें से प्रत्येक एक विशिष्ट पहलू पर ध्यान केंद्रित करता है. भोजन, सामर्थ्य, माहौल, स्वच्छता, प्रतीक्षा समय, दूरी, इत्यादि के लिए मॉड्यूल एक साथ काम कर सकते हैं. उच्च स्तर पर अंतिम निर्णय पर पहुँचने से पहले परत दर परत आंशिक शॉर्टलिस्टिंग की जाती है. यदि भोजनालय बहुत महंगा है तो मॉड्यूल नकारात्मक प्रतिक्रिया देगा, जिससे उस बिंदु पर गणना रुक जाएगी. यदि लागत उचित है तो गणना आगे बढ़ेगी.

नेटवर्क उस घटना से शुरू होता है, जिसके लिए हम खाने के लिए स्थान की तलाश कर रहे हैं और एक आउटपुट लेयर के साथ समाप्त होता है, जो चयनित घटना के लिए पसंदीदा स्थान के रूप में किसी विशिष्ट होटल को स्वीकार या अस्वीकार करने की सलाह देता है. यह डीप नेटवर्क के सरलीकृत प्रतिनिधित्व का एक उदाहरण है. डीप न्यूरल नेटवर्क में बड़े पैमाने पर समानांतर नेटवर्क यह सुनिश्चित करता है कि कार्य विभाजित हों. प्रत्येक न्यूरॉन केवल तभी फायर करता है, जब उसके इच्छित मानदंड पूरे हो जाते हैं, जिससे समूह किसी निर्णय पर पहुंच सकता है.

मानव दृश्य प्रांतस्था की परतदार संरचना, जो रेटिना से प्राप्त संकेत को सार्थक धारणा में बदल देती है, ने गहरे तंत्रिका नेटवर्क के निर्माण को प्रेरित किया. हिंटन और न्यूरोसाइंटिस्ट टेरी सेजनोव्स्की ने एक एल्गोरिथ्म बनाया, जो गहरे तंत्रिका नेटवर्क को बनाने की अनुमति देता है. गहरे तंत्रिका नेटवर्क (DNN) अनुक्रम में न्यूरॉन्स की कई परतें हैं. सभी नेटवर्क कनेक्शनों को शुरू में बराबर ताकत दी गई थी जैसे कि एक व्यक्ति के पास एक वोट हो. हालांकि, जब इनपुट के जवाब में दो न्यूरॉन एक साथ फायर करते हैं तो उनका कनेक्शन मजबूत हो जाता है. इसके विपरीत, शायद ही कभी इस्तेमाल किए गए कनेक्शन कमज़ोर हो गए. एआई शब्दावली में, कुछ कनेक्शनों को मजबूत करने और दूसरों को कमज़ोर करने की प्रक्रिया को 'प्रशिक्षण' कहा जाता है.

सबसे बाईं परत इनपुट को एनकोड करती है, जो इस मामले में चेहरे हैं. सबसे दाईं परत परिणाम उत्पन्न करती है. इस उदाहरण में, यदि फ़ोटो अल्बर्ट आइंस्टीन की है. लाखों लेबल किए गए ट्रायल चेहरों के साथ प्रशिक्षण न्यूरॉन्स के बीच वज़न को ट्रिम और परफेक्ट करने में मदद करता है. प्रत्येक परीक्षण के दौरान, वांछित आउटपुट प्राप्त करने के लिए कनेक्शन वज़न को बदलने के लिए बैकप्रोपेगेशन का उपयोग किया जाता है. पर्याप्त प्रशिक्षण के बाद, नेटवर्क उस बिंदु तक परिपक्व हो जाता है, जहां तंत्रिका नेटवर्क में प्रत्येक बाद की परत चेहरों में उत्तरोत्तर जटिल विशेषताओं (जैसे, होंठ, नाक, आँखें, आदि) को पहचानना और सटीक रूप से वर्गीकृत करना सीखती है.

बिल्ली की नजर से दृश्य

1970 के दशक में, कॉलिन ब्लेकमोर और उनके सहयोगियों ने विभिन्न भ्रूण अवस्थाओं में बिल्लियों के मस्तिष्क का विच्छेदन किया. उन्होंने पाया कि संवेदी डेटा के जवाब में दृश्य प्रांतस्था परतों में बढ़ती है. ब्लेकमोर और कूपर (1970) ने एक प्रयोग किया, जिसमें उन्होंने दो असामान्य सिलेंडर बनाए, एक में केवल ऊर्ध्वाधर धारियाँ थीं और दूसरे में केवल क्षैतिज धारियां थीं. उन्होंने पहले कुछ महीने दो सिलेंडरों में से एक में नवजात बिल्ली के बच्चों को पालने में बिताए. बिल्ली के बच्चों को प्राकृतिक दुनिया की ज्वलंत छवियों के संपर्क में नहीं लाया गया था. उन्होंने दिखाया कि ऊर्ध्वाधर रेखाओं वाले सिलेंडरों में पले-बढ़े बिल्ली के बच्चे अपने पूरे जीवन में ऊर्ध्वाधर रेखाओं को पहचान सकते हैं. लेकिन क्षैतिज रेखाओं को नहीं. इसी तरह क्षैतिज रेखाओं के साथ विपरीत परिस्थितियों में पले-बढ़े नमूने का दूसरा हिस्सा केवल क्षैतिज रेखाओं को ही देख सकता था, ऊर्ध्वाधर रेखाओं को नहीं.

साल 2005 में, हिंटन और उनके सहकर्मियों ने इस निष्कर्ष से प्रभावित होकर एक क्रांतिकारी प्रशिक्षण व्यवस्था विकसित की. हिल्टन और उनके सहकर्मियों ने पाया कि प्रत्येक परत को अलग से प्रशिक्षित किया जा सकता है, ठीक वैसे ही जैसे बिल्ली की आँखों में न्यूरॉन्स को ऊर्ध्वाधर और क्षैतिज रेखाओं के बीच अंतर करने के लिए प्रशिक्षित किया गया था. प्रशिक्षित परत से आउटपुट को अगली परत में फीड किया जाता है. अब अगली परत को प्रशिक्षित किया जाता है. परत दर परत प्रशिक्षण देकर, उन्होंने प्रदर्शित किया कि सीखना कहीं अधिक कुशल हो सकता है. प्रशिक्षण के साथ कुछ कनेक्शन मजबूत हो जाते हैं (बोल्ड लाइन्स) और अन्य कमजोर हो जाते हैं (हल्की लाइन्स). नेटवर्क से आउटपुट अब वास्तविक मूल्य के करीब है.

लाखों डेटा बिंदुओं से बमबारी के बाद न्यूरॉन्स की पहली परत सीखेगी कि किनारे या समोच्च जैसी सरल विशेषताओं का पता कैसे लगाया जाए. एक बार जब परत इन वस्तुओं को सटीक रूप से पहचानना सीख जाती है तो इसे अगली परत में भेज दिया जाता है, जो खुद को नाक या कान जैसी अधिक जटिल विशेषताओं का पता लगाने के लिए प्रशिक्षित करती है. फिर उस परत को दूसरी परत में भेजा जाता है, जो खुद को अमूर्तता के उच्च स्तरों को पहचानने के लिए प्रशिक्षित करती है और इसी तरह परत दर परत - इसलिए डीप लर्निंग में "डीप" कहा जाता है - जब तक कि सिस्टम लगातार अविश्वसनीय रूप से जटिल घटनाओं को पहचान नहीं सकता, जैसे कि मानव चेहरा.

विवाद

रॉयल स्वीडिश एकेडमी ऑफ साइंसेज ने अपने उद्धरणों में डीप न्यूरल नेटवर्क के विकास में भौतिकी से संबंधित विचारों के अनुप्रयोग और भौतिकी अनुसंधान में एआई के विशाल योगदान पर जोर दिया. हालांकि, कुछ भौतिक विज्ञानी इस बात से नाराज हैं कि नोबेल पुरस्कार दो कंप्यूटर वैज्ञानिकों को दिया गया है. यह भी ध्यान देने योग्य है कि हिंटन ने हाल ही में मानव समाज के लिए एआई के संभावित खतरे के बारे में जागरूकता बढ़ाने के लिए Google छोड़ दिया. जबकि एआई स्वास्थ्य सेवा, बेहतर डिजिटल सहायकों और बड़े पैमाने पर उत्पादकता में वृद्धि के परिणामस्वरूप महत्वपूर्ण लाभ देगा, उन्होंने चेतावनी दी. लेकिन हमें कई संभावित बुरे परिणामों के बारे में भी चिंता करनी होगी, विशेष रूप से इन चीजों के नियंत्रण से बाहर होने का खतरा.

Read More
Next Story