.

Google का AI चैटबॉट इंसान की तरह सोच सकता है, खतरे में इंजीनियर की नौकरी googlai ka ai chaitabot insaan kee tarah soch sakata hai, khatare mein injeeniyar kee naukaree

नई दिल्ली | [ गैजेट्स बुलेटिन] | AI (आर्टिफिशियल इंटेलिजेंस) के कारण गूगल के एक इंजीनियर की नौकरी खतरे में पड़ गई है। ब्लूमबर्ग की रिपोर्ट के अनुसार Google ने अपनी आर्टिफिशियल इंटेलिजेंस डेवलपमेंट टीम के एक सॉफ्टवेयर इंजीनियर ब्लेक लेमोइन को सस्पेंड कर दिया है। ब्लेक पर आरोप है कि उन्होंने थर्ड पार्टी के साथ कंपनी के प्रोजेक्ट के बारे में कॉन्फिडेंशियल इन्फर्मेशन को शेयर किया है।

 

ब्लेक ने सस्पेंशन के बाद गूगल के सर्वर के बारे में अजीब और चौंकाने वाला दावा किया है। ब्लेक ने सार्वजनिक तौर पर यह दावा किया कि गूगल के सर्वर पर उनका सामना एक ‘sentient’ AI यानी संवेदनशील AI के साथ हुआ है। ब्लेक ने यह भी दावा किया कि यह AI चैटबॉट एक इंसान की तरह सोच भी सकता है।

 

पिछले हफ्ते पेड लीव पर थे ब्लेक

 

इससे पहले Alphabet inc ने पिछले हफ्ते की शुरुआत में ब्लेक को पेड लीव पर भेजा था क्योंकि उन्होंने कंपनी की कॉन्फिडेंशियलिटी पॉलिसी का उल्लंघन किया था। ब्लेक ने Medium Post में कहा कि उन्हें एआई एथिक्स पर काम करने के लिए जल्द नौकरी से निकाला जा सकता है।

 

इस पोस्ट में उन्होंने मार्गरेट मिशेल जैसे Google के एआई एथिक्स ग्रुप के पूर्व सदस्यों का भी जिक्र किया है, जिन्हें कंपनी ने ब्लेक की तरह ही सस्पेंड किया था क्योंकि उन्होंने भी एआई के संवेदनशील होने के मुद्दे को उठाया था।

 

इंसान था गूगल का AI’

 

वाशिंगटन पोस्ट को दिए गए इंटरव्यू में ब्लेक ने कहा कि उन्होंने जिस Google एआई के साथ बातचीत की, वह एक इंसान था। जिस AI को लेकर इतना बवाल मचा है उसका नाम LaMDA (Language Model for Dialouge Applications) है। इसका इस्तेमाल चैट बॉट बनाने के लिए किया जाता है, जो अलग-अलग पर्सनैलिटी को अपनाकर ह्यूमन यूजर्स के साथ बातचीत करते हैं। ब्लेक ने कहा कि उन्होंने इसे साबित करने के लिए एक्सपेरिमेंट करने की कोशिश की, लेकिन कंपनी के टॉप ऑफिशियल्स ने इस मामले को आंतरिक रूप से उठाने पर उन्हें काफी भला-बुरा कहा।

 

गूगल के प्रवक्ता ने क्या कहा?

 

गूगल के प्रवक्ता ब्रायन गेब्रियल ने जवाब में कहा, “बड़ी एआई कम्यूनिटी में से कुछ संवेदनशील या सामान्य एआई की दीर्घकालिक संभावना पर विचार कर रहे हैं, लेकिन आज के कन्वर्सेशन मॉडल, जो संवेदनशील नहीं हैं, को मानवकृत करके ऐसा करने का कोई मतलब नहीं है।” गेब्रियल आगे कहते हैं कि उनकी टीम में नैतिकतावादी और टेक्नोलॉजिस्ट भी शामिल हैं। इन्होंने एआई सिद्धांतों के अनुसार ब्लेक की चिंताओं की समीक्षा की है और उन्हें सूचित किया है कि सबूत उनके दावों का समर्थन नहीं करते हैं। ब्लेक लेमोइन के सस्पेंशन के बारे में पूछे जाने पर कंपनी ने कहा कि वह एम्प्लॉयीज के मामलों पर टिप्पणी नहीं करती है।

 

 

Google’s AI Chatbot Can Think Like Humans, Engineer’s Job In Danger

 

New Delhi | [Gadgets Bulletin] | Due to AI (Artificial Intelligence), the job of a Google engineer is in danger. According to a Bloomberg report, Google has suspended Blake Lemoine, a software engineer on its artificial intelligence development team. Blake is accused of sharing confidential information about the company’s projects with third parties.

 

Blake has made a strange and shocking claim about Google’s servers after the suspension. Blake publicly claimed that he encountered a ‘sentient’ AI on Google’s servers. Blake also claimed that this AI chatbot can think like a human.

 

 Blake was on paid leave last week

 

Earlier last week, Alphabet Inc. sent Blake on paid leave because he violated the company’s confidentiality policy. Blake said in the Medium Post that he could be fired soon for working on AI ethics.

 

In this post, he also mentioned former members of Google’s AI Ethics Group such as Margaret Mitchell, who was suspended by the company like Blake for raising the issue of AI being sensitive.

 

 Human was Google’s AI

 

In an interview with the Washington Post, Blake said the Google AI he interacted with was a human. The AI ​​that has created so much controversy is called LaMDA (Language Model for Dialouge Applications). It is used to create chat bots, which adopt different personalities and interact with human users. Blake said that he tried to experiment to prove it, but the company’s top executives called him very bad for taking the matter internally.

 

 What did a Google spokesperson say?

 

Google spokesman Brian Gabriel said in response, “Some of the larger AI community is considering the long-term potential of sensitive or generic AI, but it makes no sense to do so by humanizing today’s conversation models, which are not sensitive.” Is.”

 

Gabriel adds that his team also includes ethicists and technologists. They have reviewed Blake’s concerns in accordance with AI principles and have informed him that the evidence does not support his claims. When asked about Blake Lemoine’s suspension, the company said it does not comment on employee matters.

 

 

61 जवानों की हत्या में शामिल 2 लाख इनामी महिला नक्सली का सरेंडर, दंतेवाड़ा में भी एक माओवादी का समर्पण 61 javaanon kee hatya mein shaamil 2 laakh inaamee mahila naksalee ka sarendar, dantevaada mein bhee ek maovaadee ka samarpan

 

 

 

 

 


Back to top button