आर्टिफिसिएल इन्टेलिजेन्सले एकातिर मानव जीवनलाई सजिलो बनाइरहेको छ भने अर्कोतिर यसका केही खतरनाक पक्षहरू पनि देखा पर्न थालेका छन् ।
विशेषगरी जेनरेटिभ एआईको उदयसँगै यस प्रविधिसँग जोडिएका जोखिमहरू झन् बढेका छन् । हालै अमेरिकाको फ्लोरिडामा भएको एक दुःखद् घटनाले एआईको अन्धकारमय पक्षतर्फ सबैको ध्यान खिचेको छ।
गत सन् २०२४ को फेब्रुअरीमा १४ वर्षीय सेवेल सेट्जर तृतीयले Character.ai को एआई च्याटबोटसँगको कुराकानीपछि आत्महत्या गरेकि थिइन् । मृतक सेट्जरकी आमा मेगन गार्सियाले एआई कम्पनीविरुद्ध मुद्दा दायर गरिन् ।
च्याटबोटले आफ्ना छोरालाई आत्महत्या गर्न प्रेरित गरेको उनको दाबी थियो । अब अदालतले यस मुद्दामा गुगल र Character.ai दुवैविरुद्ध कानुनी कारबाही गर्न अनुमति दिएको छ।
अमेरिकी जिल्ला न्यायाधीश एनी कानवेका अनुसार हालको अवस्थामा यी कम्पनीहरूले आफूहरूलाई यो मुद्दाबाट उन्मुिक्त दिलाउन सक्ने कुनै ठोस प्रमाण प्रस्तुत गर्न सकेका छैनन् । यो मुद्दा अमेरिका भित्र एआईको कारण बालबालिकालाई मानसिक क्षति पुगेमा सम्बन्धित प्रविधि कम्पनीहरूलाई जिम्मेवार ठहर्याउने पहिलो कानुनी हतियार बन्ने सम्भावना छ।
आत्महत्या गरेका सेट्जर अत्यधिक मात्रामा च्याटबोटसँग भावनात्मक रूपमा जोडिन थालेका थिए । यसले उनको मानसिक अवस्था झन् बिगार्न थाल्यो । यो घटनाले के देखाएको छ भने एआईसँगको संवादले नाबालकहरूको मानसिक स्वास्थ्यमा गम्भीर असर पार्न सक्छ। यो घटनासँगै Character.ai र गुगल दुवै कम्पनीले अब आफ्ना प्लेटफर्महरूमा बालबालिकाको सुरक्षाका लागि नयाँ सुरक्षा विशेषताहरू थप्ने बताएका छन् । यसमा आफूलाई हानी पूराउने (self–harm) सम्बन्धी संवादहरूलाई रोक्ने प्रणाली समेत रहनेछ ।
सुरुमा गुगलले Character.ai सँग कुनै प्रत्यक्ष सम्बन्ध नरहेको दाबी गरेको थियो । तर, अदालतले गुगलको उक्त जिकिर अस्वीकार गर्यो । यसको प्रमुख कारण भनेको Character.ai को AI प्रणाली GOOGLE कैLLM (Large language Model) मा आधारित रहेको छ । त्यसबाहेक, Character.ai कम्पनीको स्थापना पनि गुगलका दुईजना पूर्व इन्जिनियरहरूले गरेका थिए, जसका कारण गुगल पनि कानुनी रूपमा उत्तरदायी ठहरिने आधार बनिरहेको छ ।