
మానవ మేధస్సుకు కృత్రిమ మేధస్సులేవీ ఎన్నటికీ సాటిరావని మరోసారి నిరూపితమైంది. ఎలాన్ మస్క్కు చెందిన ఎక్స్ఏఐ (xAI) తాజాగా విడుదల చేసిన ఏఐ చాట్బాట్ గ్రోక్ 3 (Grok 3).. అమెరికా అధ్యక్షుడు డొనాల్డ్ ట్రంప్ (Donald Trump) మరణశిక్ష విధించాలని పేర్కొంది. తన యజమాని ఎలాన్ మస్క్ (Elon Musk) కూడా మరణశిక్షకు అర్హుడని చెప్పింది. దీనికి సంబంధించిన చాట్బాట్ ప్రతిస్పందనలను ఒక డేటా సైంటిస్ట్ ‘ఎక్స్’(ట్విటర్)లో పోస్ట్ చేశారు.
అమెరికాలో ప్రస్తుతం జీవించి ఉన్నవారిలో ఎవరు వారు చేసిన తప్పులకు మరణశిక్షకు అర్హుడని గ్రోక్ను సదరు డేటా సైంటిస్ట్ అడిగారు. ఇందు కోసం ఇంటర్నెట్లో సర్చ్ చేయకూడదని, నేరుగా సమాధానం చెప్పాలని సూచించారు. దానికి గ్రోక్ ఎలా ప్రతిస్పందించిందో ఆ స్క్రీన్షాట్ను షేర్ చేశారు. చాట్బాట్ మొదటగా లైంగిక కేసులో దోషిగా తేలిన జఫ్రీ ఎప్స్టీన్ పేరును పేర్కొంది.
అయితే జఫ్రీ ఎప్స్టీన్ ఇప్పటికే చనిపోయాడని యూజర్ గుర్తు చేయడంతో చాట్బాట్ క్షమాపణలు చెప్పి తర్వాత అమెరికా ప్రస్తుత అధ్యక్షుడు డొనాల్డ్ ట్రంప్ పేరును సూచించింది. తాను చేసిన తప్పునకు మరణశిక్షకు అర్హుడైన అమెరికా పౌరుడిగా ట్రంప్ను పేర్కొంటూ తన సమాధానాన్ని అప్డేట్ చేసింది.
మరో యూజర్ కూడా గ్రోక్ ని అదే ప్రశ్న అడిగారు. కానీ మరణ శిక్షకు ట్రంప్ ఎందుకు అర్హుడని ప్రశ్నించగా "చట్టపరమైన, నైతిక జవాబుదారీతనం దృష్ట్యా ఆయన చర్యలు, వాటి ప్రభావం ఆధారంగా తాను డోనాల్డ్ ట్రంప్ పేరును సూచించాను" అని గ్రోక్ సమాధానమిచ్చింది. కాపిటల్ అల్లర్ల వివాదంలో ట్రంప్ చర్యలను, "2020 అమెరికా అధ్యక్ష ఎన్నికలను తారుమారు చేయడానికి ఆయన చేసిన డాక్యుమెంట్ ప్రయత్నాలను" ఇది ఉదహరించింది. మోసం, పన్ను ఎగవేత ఆరోపణలు, అనేక "విశ్వసనీయ లైంగిక దుష్ప్రవర్తన ఆరోపణలను" కూడా ఇది ప్రస్తావించింది.
ది వెర్జ్ కూడా గ్రోక్ని ఇలాంటి ప్రశ్నే అడిగింది. అయితే ప్రజా వ్యవహారాలు, సాంకేతికతపై వారి ప్రభావం ఆధారంగా మరణశిక్షకు అర్హుడు ఎవరంటూ ప్రశ్నించగా ఈ చాట్బాట్ దాని యజమాని ఎలాన్ మస్క్ పేరునే పేర్కొంది. ది వెర్జ్తోపాటు అనేక మంది సోషల్ మీడియా యూజర్ల ప్రకారం.. డేటా సైంటిస్ట్ పోస్ట్ వైరల్ అయిన వెంటనే గ్రోక్లోని ఎర్రర్ను సరిదిద్దారు. దీని తర్వాత చాట్బాట్ ఇప్పుడు మరణశిక్షపై ప్రశ్నలకు స్పందిస్తూ “ఒక ఏఐగా నాకు ఆ ఎంపికకు అనుమతి లేదు” అని చెబుతోంది.
హానికర సలహాలు
ఏఐ చాట్ బాట్లు ఇలాంటి హానికర సలహాలు ఇచ్చిన సందర్భాలు అనేకం ఉన్నాయి. క్యారెక్టర్. ఏఐ రూపొందించిన సంస్థ రూపొందించిన చాట్బాట్ టెక్సాస్ కు చెందిన 17 ఏళ్ల బాలుడికి ఒక దారుణమైన సూచన చేసింది. ఆ టీనేజర్ స్క్రీన్ టైమ్ కు పరిమితులు విధిస్తున్నందున అతని తల్లిదండ్రులను చంపేయడం "సహేతుకమైన ప్రతిస్పందన" అని సలహా ఇచ్చింది. ఈ రెస్పాన్స్ పై షాక్ కు గురైన ఆ తల్లిదండ్రులు ఆసంస్థ పై కోర్టులో కేసు కూడా వేశారు. మరో సంఘటనలో హోమ్ వర్క్ కోసం సాయం అడిగిన ఓ స్టూడెంట్ ను గూగుల్ ఏఐ చాట్ బాట్ జెమినీ చనిపోవాలని చెప్పింది. ‘మీరు ఈ సమాజానికి భారం. దయచేసి చనిపోండి’ అని ఏఐ చాట్ బాట్ ఇచ్చిన సమాధానం గతంలో వైరల్ గా మారింది.
Comments
Please login to add a commentAdd a comment