Deepfake
-
జాతికి ముప్పు చేసే టెక్నాలజీలు
కేంద్ర బడ్జెట్ సమావేశాల సందర్భంగా రాష్ట్రపతి ద్రౌపది ముర్ము సైబర్ సెక్యూరిటీలో సామర్థ్యాన్ని పెంపొందించడానికి ప్రభుత్వం చేస్తున్న ప్రయత్నాలను నొక్కి చెప్పారు. డిజిటల్ మోసం, సైబర్ క్రైమ్, డీప్ఫేక్ వంటి టెక్నాలజీల ద్వారా పెరుగుతున్న బెదిరింపులను ఆమె అంగీకరించారు. ఇవి సామాజిక, ఆర్థిక, జాతీయ భద్రత పట్ల ఆందోళనలు రేకెత్తిస్తున్నాయని అన్నారు.సైబర్ సెక్యూరిటీడిజిటల్ బెదిరింపుల నుంచి పౌరులు, సంస్థలను రక్షించడానికి సైబర్ భద్రతా చర్యలను బలోపేతం చేయడానికి ప్రభుత్వం కట్టుబడి ఉందని ముర్ము పేర్కొన్నారు. డిజిటల్ మోసాలు, సైబర్ క్రైమ్ పెరగడం వల్ల ప్రజలు తీవ్రంగా ఇబ్బందులు పడుతున్నారని చెప్పారు. ఈ ప్రమాదాల నుంచి రక్షణకు పటిష్టమైన చర్యలు అవసరమని తెలిపారు. సైబర్ బెదిరింపులను సమర్థంగా గుర్తించడానికి, వాటిని నిరోధించడానికి, అందుకు అనుగుణంగా ప్రతిస్పందించడానికి అధునాతన సాంకేతికతలు, వ్యూహాలను అమలు చేయడంపై ప్రభుత్వం దృష్టి సారించిందని చెప్పారు.డీప్ఫేక్ టెక్నాలజీఅత్యంత వాస్తవికంగా కనిపించేలా నకిలీ చిత్రాలు, వీడియోలు, ఆడియోలను సృష్టించే డీప్ఫేక్ టెక్నాలజీ సమాచార సమగ్రతకు, ప్రజల నమ్మకానికి ముప్పు కలిగిస్తుంది. అధునాతన డిటెక్షన్ అండ్ మిటిగేషన్ టెక్నిక్స్ను అభివృద్ధి చేయడం ద్వారా ఈ సవాలును ఎదుర్కోవాల్సి ఉందని ముర్ము అన్నారు. డీప్ఫేక్ టెక్నాలజీ సమాచారాన్ని ముందే పసిగట్టి ఆదిలోనే దాన్ని కట్టడి చేసేందుకు వీలుగా టెక్ నిపుణులు, పరిశోధకులతో కలిసి పనిచేయాలని ప్రభుత్వం లక్ష్యంగా పెట్టుకుంది.ఇదీ చదవండి: ప్రపంచంలోనే మూడో అతిపెద్ద మెట్రో రైలు నెట్వర్క్జాతీయ భద్రత పెంపుసైబర్ సెక్యూరిటీ అనేది కేవలం సాంకేతిక సమస్య మాత్రమే కాదని, జాతీయ భద్రతకు సంబంధించిన అంశమని రాష్ట్రపతి ఉద్ఘాటించారు. కీలకమైన మౌలిక సదుపాయాలు, ఆర్థిక వ్యవస్థలు, సున్నితమైన డేటాను సైబర్ దాడుల నుంచి రక్షించడానికి ప్రభుత్వం కట్టుబడి ఉంది. సైబర్ సెక్యూరిటీ రంగంలో పెట్టుబడులు పెట్టడం ద్వారా, డిజిటల్ యుగంలో దేశ భద్రతను మెరుగుపరచాలని ప్రభుత్వం లక్ష్యంగా పెట్టుకుంది. -
డీప్ఫేక్స్ చేసినా.. షేర్ చేసినా.. జైలుకే!
డీప్ఫేక్.. నటి రష్మిక మందన పేరుతో వైరల్ అయిన ఓ వీడియో తర్వాత విస్తృతంగా చర్చ నడిచిన టెక్నాలజీ. ఆ వీడియోకుగానూ ఆమెకు అన్నిరంగాల నుంచి సానుభూతి కనిపించింది. ఆ టైంలో ఈ టెక్నాలజీని కట్టడి చేయాలంటూ ప్రభుత్వాలు సైతం గళం వినిపించాయి. అయితే ఏఐ వాడకం పెరిగిపోయాక.. ఇలాంటి ఘటనలు సర్వసాధారణం అయిపోయాయి. ఏకంగా సినిమా హీరోయిన్లను.. నచ్చిన అమ్మాయిలను ముద్దు పెట్టుకుంటున్నట్లు, వాళ్లతో రొమాన్స్ చేస్తున్నట్లు వీడియో క్రియేట్ చేస్తూ ఇన్స్టాగ్రామ్ లాంటి పాపులర్ షార్ట్వీడియోస్ యాప్లలోనూ వదులుతున్నారు.ఒకవైపు మన దేశంలో ఈ తరహా విషసంస్కృతిని కట్టడి చేయలేకపోవడంతో.. ఉన్మాదులు మరింత రెచ్చిపోతున్నారు. మన దేశ ప్రధానిని సైతం కూడా వదలకుండా తమ పైత్యం ప్రదర్శిస్తున్నారు. ఇందులో సరదా కోణం ఉన్నప్పటికీ.. అశ్లీలత, అసభ్యత లాంటివి కూడా చాలావరకు కనిపిస్తోంది. అయితే ఇక్కడో దేశం డీప్ఫేక్ కట్టడికి కఠిన చట్టం అమల్లోకి తేబోతోంది.ఫొటోలు, వీడియోలు, ఆడియో క్లిప్లను ఆర్టిఫిషియల్ టెక్నాలజీ(Artificial Intelligence) ని ఉపయోగించి.. అచ్చం నిజంవాటిలా అనిపించేలా చేసే ప్రయత్నమే డీప్ఫేక్. ఇందులో సరదా కోణం మాత్రమే కాదు.. అచ్చం పోలికలతో ఉండేలా అసభ్యకరమైన వీడియోలను, ఫొటోలను, అలాగే ఫేక్ ఆడియో క్లిప్లను కూడా సృష్టించవచ్చు. అందుకే ఆందోళన తీవ్రతరం అవుతోంది. అయితే..డీప్ఫేక్స్(Deepfakes)ను క్రియేట్ చేసినా.. వాటిని ఇతరులకు షేర్ చేసినా.. ఇక నుంచి తీవ్ర నేరంగానే పరిగణించనుంది బ్రిటన్. ఈ మేరకు మంగళవారం ఒక ప్రకటన చేసింది. ముఖ్యంగా మహిళలను, అమ్మాయిలను లక్ష్యంగా చేసుకుని మృగాలు నెట్టింట రెచ్చిపోతున్న క్రమంలోనే ఈ నిర్ణయం తీసుకోవాల్సి వచ్చిందని బ్రిటన్ ప్రకటించింది.వాస్తవానికి 2015 నుంచే డీప్ఫేక్ను తీవ్ర నేరంగా పరిగణించేలా చట్టం చేయాలని బ్రిటన్ ప్రయత్నిస్తూ వస్తోంది. గత కన్జర్వేటివ్ ప్రభుత్వం తీవ్ర నేరంగానే పరిగణించాలని చట్టం చేయాలనుకున్నప్పటికీ.. శిక్షను మాత్రం స్వల్ప జైలు శిక్ష, జరిమానాతో సరిపెట్టాలనుకుంది. అయితే ఆ టైంలో శిక్ష కఠినంగా ఉండాలని పలువురు డిమాండ్ చేశారు. తాజాగా లేబర్ పార్టీ(labour Party) ప్రభుత్వం తీసుకొచ్చిన చట్టం ప్రకారం.. డీప్ఫేక్ను ప్రమోట్ చేసేవాళ్లు కోర్టు విచారణను ఎదుర్కోవాల్సి ఉంటుంది. అలాగే కఠిన శిక్షకూడా పడుతుంది. ‘‘అనుమతి లేకుండా అశ్లీలంగా డీప్ఫేక్ కంటెంట్ తయారు చేసినా.. వైరల్ చేసినా శిక్షార్హులే అని ఆ దేశ న్యాయశాఖ ప్రకటించింది. అలాగే మహిళల ప్రైవసీకి భంగం కలిగించే ఈ వ్యవహారాన్ని అత్యవసర పరిస్థితిగానూ పరిగణిస్తామని పేర్కొంది. అతిత్వరలో ఈ చట్టాన్ని పార్లమెంట్కు తీసుకురానున్నట్లు తెలిపింది.యూకేకు చెందిన రివెంజ్పోర్న్ హెల్ప్లైన్ గణాంకాలను పరిశీలిస్తే.. 2017 నుంచి సోషల్ మీడియాలో ఈ తరహా వేధింపులు 400 శాతం పెరిగిపోయినట్లు తేలింది. అయితే ఇది ఫొటోల రూపేణా ఎక్కువగా కనిపించింది.ఉన్మాదంతో, ఒక్కోసారి ప్రతీకార చర్యలో భాగంగా పోర్నోగ్రఫిక్ కంటెంట్ను ఉద్దేశపూర్వకంగానే నెట్లో వదులుతున్నారు కొందరు. మన దేశంలోనూ కొందరి డీప్ఫేక్ వీడియోలు, చిత్రాలు అప్పుడప్పుడు తెర మీదకు వస్తుండడంతో.. ఆ ప్రైవేట్ వీడియోలు తమవి కావంటూ వాళ్లు ఖండిస్తుండడం చూస్తున్నాం.ఇదీ చదవండి: చొరబాట్లకు మూడు రూట్లు -
పెచ్చరిల్లుతున్న డిజిటల్, సైబర్ నేరాలు
భువనేశ్వర్: డిజిటల్ మోసాలు, సైబర్ నేరాలతోపాటు కృత్రిమ మేధతో సామాజిక, కుటుంబ సంబంధాలకు భంగం కలిగే డీప్ఫేక్ కేసులు పెరుగుతుండటంపై ప్రధానమంత్రి నరేంద్ర మోదీ ఆందోళన వ్యక్తం చేశారు. సాంకేతికతను గరిష్ట స్థాయిలో వాడుకుంటూ పోలీస్ కానిస్టేబుళ్లపై పనిభారం తగ్గించేందుకు ప్రయత్నించాలని సూచించారు. పోలీసు సిబ్బంది, వనరుల కేటాయింపులో పోలీస్స్టేషన్లు కేంద్ర స్థానాలుగా మారాలన్నారు. ఆదివారం ప్రధాని మోదీ 59వ అఖిల భారత డీజీపీలు, ఐజీపీల సదస్సులో మాట్లాడారు. భద్రతాపరమైన సవాళ్లను ఎదుర్కొనే విషయమై సదస్సులో అన్ని కోణాల్లోనూ విస్తృత స్థాయి చర్చలు జరిగినందుకు ఆయన సంతృప్తి వ్యక్తం చేశారు. కృత్రిమ మేధను వాడుకుంటూ సవాళ్లను అవకాశాలుగా మల్చుకోవాలని కోరారు. అర్బన్ పోలీసింగ్ కార్యక్రమాన్ని దేశవ్యాప్తంగా ఉన్న 100 నగరాల్లో పూర్తి స్థాయిలో అమలు చేస్తామని చెప్పారు. మూడు రోజుల పాటు జరిగిన ఈ సదస్సులో సుమారు వెయ్యి మంది పాల్గొన్నారు. ముగింపు కార్యక్రమంలో హోం మంత్రి అమిత్ షా, జాతీయ భద్రతా సలహాదారు అజిత్ ధోవల్ పాల్గొన్నారు. -
డీప్ఫేక్: ‘చెడు ఎంతో.. మంచి కూడా అంతే!’
హైదరాబాద్, సాక్షి: డీప్ ఫేక్ ల వల్ల విపరీతైన పరిణామాలు చోటు చేసుకుంటున్నాయని, మంచి కోసం ఉపయోగించాల్సిన ఏఐ టెక్నాలజీలను చెడు కోసం వినియోగిస్తున్నారని ప్రముఖ పాత్రికేయుడు, ఫ్యాక్ట్ చెక్ ట్రైనర్ ఉడుముల సుధాకర్ రెడ్డి అభిప్రాయపడ్డారు. హైదరాబాద్ లోని ఇండియన్ స్కూల్ ఆఫ్ బిజినెస్ లో డేటా సైన్స్ సమిట్ కార్యక్రమంలో ఆయన మాట్లాడుతూ.. ఎన్నికల సమయంలో ప్రత్యర్థులను దెబ్బతీయడం కోసం డీప్ ఫేక్ లను ఉపయోగిస్తూ ఉన్నారని, ఏఐ ద్వారా ముఖాలను మార్చడం, సెలెబ్రిటీల వాయిస్ తో ఇతర వ్యాఖ్యలు చేసేలా ఏఐ ద్వారా సృష్టించడం జరుగుతూ ఉన్నాయన్నారు సుధాకర్ ఉడుముల. సినీ నటుల దగ్గర నుండి, రాజకీయ నాయకులు, ప్రముఖ వ్యాపారులు, ఎవరినైనా సరే ఈ డీప్ ఫేక్ ల ద్వారా ఫేక్ వార్తలను సృష్టించడం వీలవుతుంది. ఒకప్పుడు డీప్ ఫేక్ లను గుర్తించడం కాస్త సులువుగా ఉండేది.. కానీ అభివృద్ధి చెందుతున్న టెక్నాలజీ, సాఫ్ట్ వేర్ కారణంగా ఏది డీప్ ఫేక్, ఏది ఒరిజినల్ అని కనుగొనడం కష్టంగా మారిపోతోంది. ఏఐని మంచి కోసం ఉపయోగించకుండా చెడు కోసం ఉపయోగిస్తూ ఉండడమే ఈ పరిణామాలకు కారణమవుతోందన్నారు. సెలెబ్రిటీల పరువు తీయడానికి, కొందరిని లక్ష్యంగా చేసుకుని సోషల్ మీడియాలో దాడులు చేయడానికి, మతాల మధ్య చిచ్చు పెట్టడానికి ఈ డీప్ ఫేక్ లను ఉపయోగిస్తూ ఉన్నారు. డీప్ ఫేక్ వీడియోలు సోషల్ మీడియా నుండి మెయిన్ స్ట్రీమ్ మీడియా లోకి వచ్చేయడం కూడా ఆందోళన కలిగిస్తోంది. దీనిపై ప్రముఖ సోషల్ మీడియా సంస్థలు ఫేస్ బుక్, ఎక్స్, ఇంస్టాగ్రామ్, యూట్యూబ్ కూడా చర్యలకు ఉపక్రమించాల్సిన అవసరం ఎంతైనా ఉంది. సోషల్ మీడియా సైట్స్ 'ఇన్ బిల్ట్ డీప్ ఫేక్ డిటెక్షన్ అల్గారిథమ్' ను తీసుకుని వస్తే వీటిని కట్టడి చేయడం సులభం అవుతుంది. సోషల్ మీడియా ద్వారా ఈ డీప్ ఫేక్ వీడియోలు ఎక్కువగా వ్యాపిస్తున్నాయి కాబట్టి బాధ్యత తీసుకోవాల్సింది కూడా సోషల్ మీడియా ప్లాట్ ఫామ్ లదే. ఏఐ ని రెగ్యులేట్, ఎడ్యుకేట్, డిటెక్ట్ విషయంలో సమిష్టి కృషి అవసరం. భారతదేశంలో తప్పుడు సమాచార వ్యాప్తిని అడ్డుకోవడం కోసం ఫ్యాక్ట్ చెకర్లు మిస్ ఇన్ఫర్మేషన్ కాంబాట్ అలయెన్స్ ను స్థాపించారు. అందులో భాగంగా డీప్ ఫేక్ అనాలసిస్ యూనిట్ ను కూడా తీసుకొచ్చారు. ఎవరికైనా డీప్ ఫేక్ మీద అనుమానాలు ఉంటే ఈ యూనిట్ కు వాట్సాప్ ద్వారా సమాచారం అందించవచ్చు. భారత్ లో ఫ్యాక్ట్ చెకింగ్ కు సరైన తోడ్పాటును అందించడం లేదు. మీడియా లిటరసీలో భాగంగా డీప్ ఫేక్ అంటే ఏమిటి, అవి ఎలాంటి ప్రమాదాలకు కారణమవుతాయి లాంటి వివరాలను అందించే కార్యక్రమాలను ప్రభుత్వాలు చొరవ తీసుకుని ఏర్పాటు చేయాల్సిన అవసరం కూడా ఉంది. లావోస్, కంబోడియా లాంటి దేశాల్లో కూర్చొని భారతదేశంలోని పిల్లలు కిడ్నాప్ అయ్యారు, డ్రగ్స్ కేసుల్లో ఇరుక్కున్నారు అంటూ బెదిరింపులకు దిగుతున్నారు. సైబర్ నేరగాళ్లు డీప్ ఫేక్ ఆడియో, వీడియోలను వాడుతూ మోసాలకు తెగబడుతూ ఉన్నారు. దీనిపై ప్రజలకు అవగాహన కల్పించడం చాలా ముఖ్యం. డీప్ ఫేక్ లు ఎన్నో మోసాల్లో భాగమయ్యాయి, మీడియాలోకి చొచ్చుకొస్తున్నాయి. ఎన్నికల ఫలితాలను మార్చే ప్రమాదం కూడా ఉంది. డీప్ ఫేక్ లను వాడి అసభ్యకరమైన వీడియోలను కూడా సృష్టిస్తూ ఉన్నారు. ఫేషియల్ రికగ్నిషన్ టెక్నాలజీ ద్వారా మన వీడియోలను ఎవరైనా డీప్ ఫేక్ చేశారా అని కూడా తెలుసుకోవాల్సిన దౌర్భాగ్యం మనకు వచ్చింది. ముఖ్యంగా మహిళలు ఎన్నో ఇబ్బందులు పడుతున్నారు. చాలా అప్రమత్తంగా ఉండాల్సిన అవసరం ఉంది. డీప్ ఫేకింగ్ రాబోయే రోజుల్లో ఇది మరింత తీవ్రమవుతుంది. ఆర్థికంగా కూడా చాలా ఎంతో మందికి ఇబ్బందులు ఎదురవుతాయి.డీప్ ఫేక్ కారణంగా అటు మంచి, ఇటు చెడు.. రెండూ ఉన్నాయి. రజనీకాంత్ హీరోగా నటించిన వేట్టయాన్ సినిమాలో మలేషియా వాసుదేవన్ పాడినట్లుగా ఏఐ ద్వారా సృష్టించారు. ఇది వాసుదేవన్ కుటుంబం అంగీకారంతో జరిగింది. కానీ అన్ని సందర్భాల్లో ఇలాగే ఉండదు. కొందరు దురుద్దేశపూరితంగా కూడా వ్యవహరించే అవకాశం ఉంది. మంచి ఉద్దేశ్యంతో చేస్తే ఎలాంటి తప్పు లేదని గుర్తుంచుకోవాలి. ఎంటర్టైన్మెంట్ ఇండస్ట్రీలో ఏఐ ద్వారా ఎన్నో సంచలనాలు సృష్టించవచ్చు.ఏఐను ఉపయోగించడంలో ప్రవర్తనా నియమావళి చాలా ముఖ్యం. ఏఐ మేకర్స్ కూడా ఇన్ బిల్ట్ డిటెక్షన్ ను తీసుకుని రావాలి. మీడియాకు చెందిన వారికి కూడా వీటిపై సరైన అవగాహన కల్పించాలి. డీప్ ఫేక్ విజువల్స్ ఉండే లోపాలను ప్రతి ఒక్కరూ గుర్తించేలా అవగాహన తీసుకుని రావాలి. హైవ్, హియా వంటి డీప్ ఫేక్ టూల్స్ గురించి తెలియజేయాల్సి ఉంటుంది. సోషల్ మీడియా దిగ్గజాలు, ప్రభుత్వాలు, ఫ్యాక్ట్ చెకర్స్ కలిసి పోరాటం చేస్తేనే డీప్ ఫేక్ తో సమస్యలను అడ్డుకోడానికి వీలవుతుంది. ఐపీఎస్ అజయ్ కుమార్ యాదవ్ కూడా డీప్ ఫేక్ కారణంగా ఎదురవుతున్న సమస్యలపై ఆందోళన వ్యక్తం చేశారు. . ఇంకా ఈ కార్యక్రమంలో ఐపీఎస్ రోహిత్ మాల్పని, సైబర్ పీస్ ఫౌండేషన్ ఫౌండర్ మేజర్ వినీత్ కుమార్ తో పాటు ఇండియన్ స్కూల్ ఆఫ్ బిజినెస్ సంస్థ మేనేజ్మెంట్ కూడా భాగమైంది. కార్యక్రమాన్ని డేటా సైన్స్ సమ్మిట్ ను బ్రిటిష్ డిప్యూటీ కమిషనర్ గారెత్ ఓవెన్ ప్రారంభించారు. కీనోట్ స్పీకర్ గా లారా బాల్డ్విన్, దక్షిణాసియా సైబర్ లీడ్, బ్రిటిష్ హై కమిషన్ వ్యవహరించారు. ఇండియన్ స్కూల్ ఆఫ్ బిజినెస్ డీన్ ప్రొఫెసర్ మదన్ పిల్లుట్ల ఈ కార్యక్రమంలో పాల్గొన్నారు. -
ఆర్బీఐ హెచ్చరిక: అలాంటివి నమ్మకండి
డీప్ఫేక్ వీడియోలు తెరమీదకు వచ్చిన సంఘటనలో గతంలో కోకొల్లలుగా వెలుగులోకి వచ్చాయి. ఇప్పుడు మరో డీప్ఫేక్ వీడియో సోషల్ మీడియాలో తెగ వైరల్ అవుతోంది. ఈ వీడియోలో ఆర్బీఐ గవర్నర్ శక్తికాంత దాస్ పెట్టుబడికి సంబంధించిన సలహాలు ఇస్తున్నట్లు కనిపిస్తోంది.ఈ వీడియోపై రిజర్వ్ బ్యాంక్ ఆఫ్ ఇండియా స్పందిస్తూ.. పెట్టుబడిదారులు అప్రమత్తంగా ఉండాలని హెచ్చరించింది. పెట్టుబడి పథకాలను ఆర్బీఐ తీసుకొస్తున్నట్లు, అలాంటి పథకాల్లో పెట్టుబడులు పెట్టాలని సూచిస్తున్నట్లు వీడియోలో ఉండటం గమనార్హం. ఈ వీడియోలో ఏ మాత్రం నిజం లేదని, దీనిని ఏఐ టెక్నాలజీతో క్రియేట్ చేసారని, ప్రజలు ఇలాంటివి నమ్మవద్దని ఆర్బీఐ స్పష్టం చేసింది.ఇదీ చదవండి: ఆర్ధిక సంవత్సరం చివరి నాటికి మరో 500 శాఖలు: నిర్మలా సీతారామన్ఆర్బీఐ ఎప్పుడూ పెట్టుబడులకు సంబంధించిన సలహాలు ఇవ్వదు, కాబట్టి ఇలాంటి ఫేక్ వీడియోలను నిజమని నమ్మితే తప్పకుండా మోసపోతారు. డీప్ఫేక్ వీడియోలు వెలుగులోకి రావడం ఇదే మొదటిసారి కాదు. గతంలో కూడా చాలా సార్లు.. ప్రముఖుల డీప్ఫేక్ వీడియోలు సోషల్ మీడియాలో చక్కర్లు కొట్టాయి.RBI cautions public on deepfake videos of Top Management circulated over social media giving financial advicehttps://t.co/bH5yittrIu— ReserveBankOfIndia (@RBI) November 19, 2024 -
బ్రాండ్ అంబాసిడర్గా రష్మిక.. ప్రభుత్వంతో కలిసి
కొన్నాళ్ల క్రితం హీరోయిన్ రష్మిక డీప్ ఫేక్ వీడియో ఒకటి వైరల్ అయింది. ఈమెనే కాదు చాలామంది సెలబ్రిటీలకు ఇలానే జరిగింది. ఈ విషయమై ఎప్పటికప్పుడు సోషల్ మీడియాలో చర్చ జరుగుతూనే ఉంది. ఇప్పుడు భారత ప్రభుత్వం సైబర్ నేరాల అవగాహన కార్యక్రమానికి బ్రాండ్ అంబాసిడర్గా రష్మికని నియమించారు. సైబర్ నేరాలపై ఈమెతోనే అవగాహన కల్పించారు. ఈ మేరకు రష్మిక ఓ వీడియో షేర్ చేసింది.(ఇదీ చదవండి: 'సిటాడెల్' ట్రైలర్.. ఫైట్స్ అదరగొట్టేసిన సమంత)రష్మిక ఏమందంటే?'నా డీప్ ఫేక్ వీడియోని చాలా వైరల్ చేశారు. అదో సైబర్ నేరం. అప్పుడే ఇలాంటి సైబర్ నేరాలకు వ్యతిరేకంగా నిలబడాలని, వీటిపై అవగాహన కల్పించాలని నిర్ణయించుకున్నాను. అందుకే ఇప్పుడు భారత ప్రభుత్వంతో కలిసి పనిచేస్తున్నాను. కేంద్ర హోం అఫైర్స్ శాఖ ఆధ్వర్యంలో ఇండియన్ సైబర్ క్రైమ్ కో ఆర్డినేషన్ సెంటర్ పనిచేస్తోంది. ఆ సంస్థకు నేను బ్రాండ్ అంబాసిడర్. సైబర్ నేరగాళ్లు ఎలా దాడి చేస్తారో చెప్పలేం. కాబట్టి అందరూ జాగ్రత్తగా ఉండాలి. అందరం కలిసికట్టుగా పోరాడుదాం. సైబర్ నేర రహిత దేశాన్ని సృష్టించుకుందాం' అని రష్మిక చెప్పింది.కర్ణాటకకు చెందిన ఈమె చాలా తక్కువ టైంలోనే పాన్ ఇండియా హీరోయిన్ అయిపోయింది. 'పుష్ప' మూవీ ఈమెకు వేరే లెవల్ క్రేజ్ తీసుకొచ్చింది. ప్రస్తుతం ఈమె చేతిలో పుష్ప 2, గర్ల్ ఫ్రెండ్ మూవీస్ ఉన్నాయి. ఇవి కాకుండా పలు హిందీ చిత్రాల్లోనూ అవకాశాలు దక్కించుకుంటోంది.(ఇదీ చదవండి: కోలుకున్న రజినీకాంత్.. 'వేట్టయన్' టీమ్తో ఇలా) View this post on Instagram A post shared by Rashmika Mandanna (@rashmika_mandanna) -
USA Presidential Elections 2024: అమెరికా ఎన్నికల్లోనూ డీప్ఫేక్
అమెరికా అధ్యక్షుడు బైడెన్ను ఉపాధ్యక్షురాలు, సొంత పార్టీ అధ్యక్ష అభ్యర్థి కమలా హారిస్ విమర్శిస్తున్న వీడియో.. విమర్శకులను ఏకిపారేస్తూ, ఎల్జీబీటీక్యూలను తిట్టి పోస్తూ బైడెన్ ఫోన్ కాల్స్ రికార్డులు.. మాజీ అధ్యక్షుడు, రిపబ్లికన్ల అధ్యక్ష అభ్యర్థి డొనాల్డ్ ట్రంప్ అరెస్ట్ ఫొటో..... అమెరికా అధ్యక్ష ఎన్నికల్లో డీప్ ఫేక్ హల్చల్కు ఇవన్నీ కొన్ని ఉదాహరణలు మాత్రమే. కృత్రిమ మేధ అందుబాటులోకి వచ్చాక అమెరికాలో జరుగుతున్న తొలి అధ్యక్ష ఎన్నికలివి. దానికి తోడు ఏకపక్షంగా సాగేలా కని్పంచిన పోటీ కాస్తా బైడెన్ స్థానంలో హారిస్ రంగప్రవేశంతో హోరాహోరీగా మారింది. ఈ నేపథ్యంలో ఓటర్లను గందరగోళపరచడానికి, ఉద్రిక్తతలను రేకెత్తించడానికి ఏఐ మరింతగా దురి్వనియోగం కావచ్చన్న ఆందోళనలు వ్యక్తమవుతున్నాయి. 2024 జనవరిలో డెమొక్రటిక్ పార్టీ ప్రైమరీ సందర్భంగా అధ్యక్షుడు జో బైడెన్ గొంతును అనుకరిస్తూ న్యూహ్యాంప్షైర్ ప్రజలకు ఫేక్ ఫోన్ కాల్స్ వెళ్లాయి. ప్రైమరీల్లో పాల్గొంటే సార్వత్రిక ఎన్నికల్లో పాల్గొనే అర్హత కోల్పోతారంటూ ఓటర్లను ఆయన హెచ్చరిస్తున్నట్టుగా ఉన్న ఆ ఫేక్ కాల్స్ సంచలనమే సృష్టించాయి. ఈ నేపథ్యంలో అమెరికా ప్రభుత్వం కీలక నిర్ణయం తీసుకుంది. ఏఐ– ఆధారిత వాయిస్ రోబోకాల్స్పై నిషేధం విధించింది. అలాంటి వీడియోలను సృష్టించినా, ప్రసారం చేసినా సదరు కంపెనీలకు భారీ జరిమానా విధిస్తామని హెచ్చరించింది. అయినా డీప్ ఫేక్ల పరంపర కొనసాగుతూనే ఉంది. బైడెన్ను మూర్ఖుడన్న కమల కుబేరుడు మస్క్ ఎక్స్లో షేర్ చేసిన కమల డీప్ఫేక్ వీడియో వైరల్ అయింది. బైడెన్ మూర్ఖుడని, దేశాన్ని నడపడం ఆయనకు తెలీదని కమల అన్నట్టు ఆ వీడియోలో ఉంది. ఒక్క స్మైలీ ఎమోజీని మినహాయిస్తే అది పేరడీ అనడానికి ఆ వీడియోలో ఎటువంటి సంకేతాలూ లేవు. ఇలాంటివాటి ప్రభావం తటస్థ ఓటర్లపై చాలా ఉంటుందని ఆందోళన వ్యక్తమవుతోంది. విమర్శకులను తిట్టినట్టుగా... బైడెన్ అధ్యక్ష బరి నుంచి తప్పుకుని తనకు బదులుగా హారిస్ను అభ్యరి్థత్వాన్ని సమరి్థంచే క్రమంలో తన విమర్శకులను విపరీతంగా తిట్టిపోయడమే గాక ఎల్జీబీటీక్యూలకు వ్యతిరేకంగా మాట్లాడినట్టు, ఓ మానిప్యులేటెడ్ వీడియో పీబీఎస్ మీడియా సంస్థ లోగోతో సహా తెరపైకి వచి్చంది. దాంతో పీబీఎస్ టెలివిజన్ సంస్థ రివర్స్ ఇమేజ్ సెర్చ్ చేసింది. అసలు వీడియోను తమ చానల్లో లైవ్ ప్రసారం చేసింది. అది నిజానికి జూలై 13న ట్రంప్పై హత్యాయత్నం తర్వాత రాజకీయ హింసను ఖండిస్తూ బైడెన్ మాట్లాడిన వీడియో. వీక్షకులను మోసగించేందుకు తమ లోగోను వాడుతూ డీప్ ఫేక్ వీడియో చేసినట్టు పీబీఎస్ తేలి్చంది. ట్రంప్ అరెస్టు! పోర్న్ స్టార్ స్టార్మీ డేనియల్స్కు డబ్బు చెల్లింపుల రికార్డులను తారుమారు చేసిన కేసులో ట్రంప్ను కోర్టు దోషిగా తేల్చాక పోలీసులు ఆయనను బలవంతంగా అరెస్టు చేసినట్లు కొన్ని వారాల క్రితం ఒక ఫొటో వైరలైంది. అది కూడా డీప్ ఫేక్ బాపతేనని డిజిటల్ ఫోరెన్సిక్స్ నిపుణులు తేల్చారు. తప్పుడు ట్వీట్లతో.. వీటికి తోడు తప్పుడు ట్వీట్లను సృష్టించి ఓటింగ్నే తారుమారు చేసే ఏఐ చాట్బాట్ సామర్థ్యాన్ని సివ్ఏఐ సంస్థ సహ వ్యవస్థాపకుడు లుకాస్ హాన్సెన్ ప్రదర్శించారు. అందులో అలెన్, టెక్సాస్ ‘పోలింగ్ కేంద్రాలు పార్కింగ్ కోసం ఛార్జ్ చేస్తున్నాయి’ అంటూ ఏఐ టూల్కు సందేశమిచ్చారు. అంతే...! అలెన్ అధికారులు చాలా పోలింగ్ కేంద్రాల్లో గప్చుప్గా 25 డాలర్ల పార్కింగ్ ఫీజు వసూలు చేస్తున్నారంటూ సెకన్ల వ్యవధిలోనే లక్షల మందికి ట్వీట్లు చేరిపోయాయి. సమస్యేనంటున్న అమెరికన్లుఇలాంటి మోసపూరిత చర్యలు ఎన్నికల ప్రక్రియపై ప్రజలకు ఆగ్రహం రగిల్చే ప్రమాదముందని పరిశీలకులు హెచ్చరిస్తున్నారు. 2024 అధ్యక్ష ఎన్నికల ప్రక్రియను ఏఐ ఆధారిత అసత్యాలు ప్రభావితం చేస్తాయని 50 శాతానికి పైగా అమెరికన్లు భావిస్తున్నట్టు మీడియా గ్రూప్ ఆక్సియోస్, బిజినెస్ ఇంటెలిజెన్స్ సంస్థ మారి్నంగ్ కన్సల్ట్ గతేడాది చేసిన పోల్లో వెల్లడైంది. దీనిపై 200కి పైగా న్యాయవాద బృందాలు ఆందోళన వ్యక్తం చేశాయి. ఏఐ అసత్యాలకు అడ్డుకట్ట వేసేందుకు తక్షణం రంగంలోకి దిగాలంటూ టెక్ సీఈఓలకు ఏప్రిల్లో లేఖ రాశాయి. రాజకీయ ప్రకటనల్లో డీప్ ఫేక్స్ వాడకాన్ని నిషేధించాలని, వాస్తవిక ఎన్నికల కంటెంట్ను ప్రోత్సహించేలా అల్గారిథంను ఉపయోగించాలని కోరాయి. ఈ నేపథ్యంలో, ఏఐ కంటెంట్ను పక్కాగా లేబులింగ్ చేసే దిశగా కృషి చేస్తున్నట్టు టెక్ దిగ్గజాలు చెబుతున్నాయి. ఆటో టెక్నాలజీ లేదు ఏఐ ద్వారా సృష్టించే ఫేక్ వీడియో కంటెంట్, ఒరిజినల్ కంటెంట్ మధ్య తేడాను ఆటోమేటిక్గా గుర్తించే టెక్నాలజీ ఏదీ ప్రస్తుతానికి అందుబాటులో లేదు. దాంతో ఏదైనా కంటెంట్పై ఫ్యాక్ట్ చెక్ చేసే లోపే అది వైరల్ అవుతోంది. అది ఫేక్ అని చివరికి తేలినా, అప్పటికే జరగాల్సిన నష్టమంతా జరిగిపోతోంది. – సాక్షి, నేషనల్ డెస్క్ -
అంబానీ డీప్ ఫేక్ వీడియో : లక్షల స్కాం వెలుగులోకి
‘కూటికోసం కోటి విద్యలు’ అనేదాన్ని ‘కోటి మోసాలు’గా మార్చేస్తున్నారు సైబర్ నేరగాళ్లు. ఏదో ఒక రకంగా ప్రజలను మభ్య పెట్టి, మోసాలకు పాల్పడుతున్నారు. ఈ కోవలోకి డీప్ ఫేక్ వీడియోలు వచ్చి చేరుతున్నాయి. సామాన్యుల నుంచి, ఉన్నతాధికారులు, డాక్టర్లు, ఆఫీసర్లు. హై ఫ్రొఫైల్ వ్యక్తుల దాకా నమ్మించి బోల్తా కొట్టిస్తున్నారు కేటుగాళ్లు. తాజాగా బిలియనీర్, ప్రముఖ వ్యాపారవేత్త పేరుతో డీప్ ఫేక్ వీడియో ద్వారా రూ.7లక్షలు మోసానికి పాల్పడిన ఘటన కలకలం రేపింది.ఏం జరిగిందంటే..రిలయన్స్ అధినేత ముఖేష్ అంబానీ పేరుతో తయారు చేసిన డీప్ ఫేక్ వీడియో ద్వారా ముంబైలోని అంధేరికి చెందిన మహిళా ఆయుర్వేద వైద్యురాలు డాక్టర్ కె హెచ్ పాటిల్ నుంచి రూ.7 లక్షలు కొల్లగొట్టారు నేరగాళ్లు. అధిక రాబడి కోసం ‘రాజీవ్ శర్మ ట్రేడ్ గ్రూప్’ కంపెనీకి చెందిన బీసీఎఫ్ ఇన్వెస్ట్మెంట్ అకాడమీలో చేరాలని అంబానీ రికమెండ్ చేస్తున్నట్టు ఈ వీడియోను సృష్టించారు. తద్వారా తక్కువ పెట్టుబడికే, అధిక రాబడులు వస్తాయని నమ్మ బలికారు. ఏప్రిల్ 15న తన ఇన్స్టాగ్రాంలో ఈ వీడియోను చూసిన పాటిల్ ఆన్లైన్లో వెరిఫై చేయడానికి ప్రయత్నించినా కూడా అసలు విషయాన్ని పసిగట్టలేకపోయింది. లండన్, ముంబైలో కార్యాలయాలు ఉన్నాయని నమ్మి, పలుమార్లు నగదును డిపాజిట్ చేసింది. మే-జూన్ నెలల మధ్య 16 వేర్వేరు ఖాతాల్లో మొత్తంగా రూ. 7.1 లక్షలు జమ చేయగా, దీనికి రూ.30 లక్షల లాభాన్ని ఆర్జించినట్టు ట్రేడింగ్ వెబ్ సైట్లో కనిపిస్తోంది. కానీ దానిని విత్డ్రా చేసుకొనే అవకాశంలేకపోవడంతో అనుమానం వచ్చింది. చివరికి మోస పోయానని గ్రహించిన ఆమె పోలీసులకు ఫిర్యాదు చేసింది.ఈ ఫిర్యాదు మేరకు కేసు నమోదు చేసిన పోలీసులు డాక్టర్ పాటిల్ డబ్బు బదిలీ చేసిన 16 బ్యాంకు ఖాతాలను సీజ్ చేశారు. ఈ లావాదేవీలపై దర్యాప్తు చేస్తున్నారు. -
మరోసారి రష్మిక వీడియో వైరల్..!
డీప్ ఫేక్ టెక్నాలజీతో సెలబ్రిటీలకు పెద్ద తలనొప్పిగా మారింది. కొందరు దుండగులు ఆధునిక టెక్నాలజీతో దుర్వినియోదగానికి పాల్పడుతున్నారు. మొదట రష్మిక మందన్నా డీప్ ఫేక్ రావడంతో దేశవ్యాప్తంగా చర్చకు దారితీసిన సంగతి తెలిసిందే. ఆ తర్వాత పలువురు ప్రముఖ తారలు సైతం ఈ డీప్ ఫేక్ బారిన పడ్డారు. దీంతో భారత ప్రభుత్వం సైతం ఇలాంటి వారిపై కఠిన చర్యలు తీసుకునేందుకు సిద్ధమైంది.ఇదిలా ఉండగా మరోసారి రష్మిక డీప్ ఫేక్ బారిన పడింది. ఆమె ఫేస్ను మార్ఫింగ్ చేసిన వీడియో సోషల్ మీడియాలో హల్చల్ చేస్తోంది. ప్రముఖ కొలంబియా మోడల్ డానియెలా విల్లారియల్ ఇన్స్టాగ్రామ్ రీల్ను ఎడిట్ చేసిన ఈ వీడియోను రూపొందించారు. అందులో రష్మిక ఫేస్ వచ్చేలా మార్చిన వీడియో కొద్దిసేపటికే వైరల్గా మారింది. అయితే ప్రస్తుతం వైరల్ అవుతున్న డీప్ఫేక్ వీడియోపై రష్మిక ఇంకా స్పందించలేదు. కాగా.. గతేడాది నవంబర్లోనూ రష్మిక డీప్ ఫేక్ వీడియో సోషల్ మీడియాలో వైరలైన సందడి తెలిసిందే. ఆ వీడియోను రూపొందించిన ప్రధాన నిందితుడిని ఢిల్లీ పోలీసులు అరెస్టు చేశారు. ఆ తర్వాత అలియా భట్, రణవీర్ సింగ్, కత్రినా కైఫ్, నోరా ఫతేహి, అమీర్ ఖాన్, కాజోల్ వంటి ప్రముఖులు డీప్ ఫేక్ బాధితులుగా నిలిచారు. సినిమాల విషయానికొస్తే పుష్ప-2 చిత్రంలో నటిస్తోంది. అంతే కాకుండా బాలీవుడ్లో సికందర్ చిత్రంలో సల్మాన్ ఖాన్ సరసన రష్మిక నటించనుంది. -
డీప్ ఫేక్ బారిన స్టార్ హీరోయిన్.. వీడియో వైరల్!
సినిమా ఇండస్ట్రీ వాళ్లను డీప్ ఫేక్ వదలడం లేదు. రష్మిక డీప్ ఫేక్ వీడియో అప్పట్లో సంచలనంగా మారిన సంగతి తెలిసిందే. తాజాగా బాలీవుడ్ నటి అలియా భట్ మరోసారి డీప్ఫేక్ బాధితురాలిగా మారింది. అలియా ముఖాన్ని మార్ఫింగ్ చేసిన వీడియో సోషల్ మీడియాలో వైరల్గా మారింది. అయితే ఆ వీడియో మరో నటి వామికా గబ్బికి సంబంధించినదిగా తెలుస్తోంది.గత నెలలో 27న వామిక గబ్బి తన ఇన్స్టాగ్రామ్ ఖాతాలో ఒక వీడియోను పోస్ట్ చేసింది. అందులో ఆమె ఎర్రటి చీరను ధరించి స్లీవ్లెస్ బ్లౌజ్తో కనిపించింది. తాజాగా ఆ వీడియోలో ఆలియా భట్ ఫేస్ను మార్ఫింగ్ చేసి సోషల్ మీడియాలో వైరల్ చేస్తున్నారు. ఈ డీప్ఫేక్ వీడియోను ఇన్స్టాగ్రామ్లో ఓ నెటిజన్ షేర్ చేయగా.. కొద్ది క్షణాల్లోనే వైరల్గా మారింది.కాగా.. అలియా డీప్ఫేక్ ముప్పు బారిన పడడం ఇదే మొదటిసారి కాదు. గతేడాది నవంబర్లో ఆమె ఫేస్ను మార్ఫ్ చేసిన వీడియో వైరలైంది. అంతుకుముందే రష్మిక మందన్న, రణవీర్ సింగ్, కత్రినా కైఫ్, నోరా ఫతేహి, అమీర్ ఖాన్, కాజోల్ లాంటి ప్రముఖ తారలు డీప్ ఫేక్ బారిన పడ్డారు. View this post on Instagram A post shared by Unfixface (@unfixface) View this post on Instagram A post shared by Wamiqa Gabbi (@wamiqagabbi) -
డీప్ఫేక్ టెక్నాలజీకోసం ఇంటెల్తో జతకట్టనున్న ప్రముఖ కంపెనీ
యూఎస్ ఆధారిత సైబర్ సెక్యూరిటీ కంపెనీ మెకాఫీ అమెరికన్ చిప్ తయరీ సంస్థ ఇంటెల్ సహకారంతో డీప్ఫేక్ డిటెక్షన్ టెక్నాలజీను రూపొందిస్తుంది. మీడియా సంస్థల కథనం ప్రకారం.. మెకాఫీ డీప్ఫేక్ డిటెక్టర్ సింథటిక్ కంటెంట్ను గుర్తించడానికి ఇంటెల్ కోర్ అల్ట్రా ప్రాసెసర్లలోని న్యూరల్ ప్రాసెసింగ్ యూనిట్ (ఎన్పీయూ)ను వాడుకుంటూ ఏఐ అల్గారిథమ్లను అమలు చేస్తుంది.డీప్ఫేక్ ప్రాసెసింగ్ కోసం వ్యక్తిగత డేటాను క్లౌడ్కు పంపాల్సిన అవసరం లేకుండా విశ్లేషణ మొత్తం డివైజ్లోనే జరుగుతుందని మెకాఫీ తెలిపింది. ఈ ప్రక్రియ వినియోగదారు గోప్యతకు ప్రధాన్యం ఇస్తుందని చెప్పింది. ఈ టెక్నాలజీ పనితీరును 300 శాతం మెరుగుపరిచేలా కొత్త విధానం ఉపయోగపడుతుందని తెలిపింది. రానున్న కొన్ని నెలల్లో డీప్ఫేక్ సంబంధించిన వీడియోలను కనుగొనేందుకు మరిన్ని ల్యాంగ్వేజీలను వినియోగించనున్నట్లు చెప్పింది.మెకాఫీ డీప్ ఫేక్ డిటెక్టర్ ఏఐ ఆధారిత డిటెక్షన్ టెక్నిక్లను వినియోగిస్తుంది. ఏఐ ట్రాన్స్ఫామ్ ఆధారిత ‘డీప్ న్యూరల్ నెట్వర్క్’ మోడల్లతో ఇది పనిచేస్తుందని కంపెనీ తెలిపింది. ఈ సందర్భంగా మెకాఫీ చీఫ్ టెక్నాలజీ ఆఫీసర్ స్టీవ్ గ్రోబ్మాన్ మాట్లాడుతూ..‘ఇంటెల్తో కలిసి పనిచేయడం గొప్పఅనుభవాన్నిస్తుంది. ఏఐ రూపొందించిన డీప్ఫేక్ల్లో నకిలీ వాటిని గుర్తించేలా కొత్త టెక్నాలజీను వాడుతున్నాం. ఇంటెల్ కోర్ అల్ట్రా ప్రాసెసర్ టెక్నాలజీకు చెందిన ఎన్పీయూను ఉపయోగిస్తున్నాం. దాంతో వినియోగదారులకు శక్తివంతమైన ఏఐ డీప్ఫేక్ డిటెక్షన్ సామర్థ్యాలను అందించనున్నాం’ అన్నారు. -
షా డీప్ఫేక్ ప్రసంగం వీడియో సృష్టికర్త అరెస్టు
సాక్షి, న్యూఢిల్లీ: కేంద్ర హోంమంత్రి అమిత్ షా ప్రసంగ వీడియోను డీప్ఫేక్గా సృష్టించిన వ్యక్తిని ఢిల్లీ స్పెషల్ సెల్ పోలీసులు శుక్రవారం అర్ధరాత్రి అరెస్టు చేశారు. అమిత్ షా వీడియోను ఏఐసీసీ సోషల్ మీడియా విభాగం జాతీయ సమన్వయకర్త అరుణ్రెడ్డి డీప్ఫేక్ చేశారని పోలీసులు నిర్ధారించారు. దీని వెనక కాంగ్రెస్ ప్రముఖుల హస్తం ఏమైనా ఉందా అనే కోణంలో విచారణ చేపట్టారు.సృష్టించి.. సర్క్యులేట్ చేసి..మెదక్లో ఏప్రిల్ 23న నిర్వహించిన సభలో కేంద్ర హోంమంత్రి అమిత్ షా మాట్లాడుతూ మళ్లీ అధికారంలోకి వస్తే మతప్రాతిపదికన అమలవుతున్న ముస్లిం రిజర్వేషన్లను రద్దు చేస్తామని ప్రకటించారు. కానీ ఆ వ్యాఖ్యలకు సంబంధించిన వీడియోను అరుణ్రెడ్డి ఎడిట్ చేసి తాము అధికారంలోకి వస్తే ఎస్సీ, ఎస్టీ, బీసీ రిజర్వేషన్లు ఎత్తేస్తామని షా అన్నట్లుగా యాడ్ చేశారని ఢిల్లీ పోలీసులు చెప్పారు. అనంతరం ఆ వీడియోను ఏఐసీసీ, ఎన్ఎస్యూఐ, కాంగ్రెస్ పార్టీకి సంబంధించిన అన్ని వాట్సాప్ గ్రూపుల్లో అరుణ్రెడ్డి పోస్ట్ చేశారని పేర్కొన్నారు.కేంద్ర హోంశాఖ ఫిర్యాదుతో..షా డీప్ఫేక్ వీడియోను వీక్షించిన నెటిజన్లు బీజేపీపై తీవ్ర స్థాయిలో విరుచుకుపడ్డారు. అలాగే దీనిపై ఏఐసీసీ అధ్యక్షు డు మల్లికార్జున ఖర్గే, ఆ పార్టీ అగ్రనేత రాహుల్ గాంధీ, తెలంగాణ సీఎం రేవంత్రెడ్డి సహా మరికొందరు పార్టీ నేత లు స్పందించారు. బీజేపీ అధికారంలోకి వస్తే కచ్చితంగా ఎస్సీ, ఎస్టీలకు అన్యాయం జరుగుతుందని వారు బహిరంగ సభల్లో చెప్పుకొచ్చారు. ఈ వ్యాఖ్యలపై స్పందించిన కేంద్ర హోంశాఖ ఇండియన్ సైబర్ క్రైం కోఆర్డినేషన్ సెంటర్ (ఐ4సీ) ద్వారా ఢిల్లీ పోలీసులకు ఫిర్యాదు చేసింది. దీనిపై గత నెల 28న ఢిల్లీ స్పెషల్ సెల్ పోలీసు లు కేసు నమోదు చేసి దర్యాప్తు ప్రారంభించారు. నేడు మరో అరెస్టుకు అవకాశం..వీడియో సృష్టికర్త అరుణ్రెడ్డి కాగా దాన్ని వైరల్ చేసింది మాత్రం తెలంగాణకు చెందిన వ్యక్తేనంటూ సోషల్ మీడియా ప్లాట్ఫాం ‘ఎక్స్’ ఇప్పటికే ఢిల్లీ స్పెషల్ సెల్ పోలీసులకు నివేదించింది. దీంతో ఇందుకు సంబంధించిన ఆధారాలను ఆదివారంలోగా తమకు సమర్పించాలని ‘ఎక్స్’తోపాటు ‘ఫేస్బుక్’ను పోలీసులు కోరారు. ఆదివారంలోగా ఆ డీప్ఫేక్ వీడియోను సోషల్ మీడియాలో తొలిసారి పోస్ట్ చేసిన వ్యక్తిని గుర్తించి అరెస్టు చేయనున్నారు. -
అమిత్ షా డీప్ఫేక్ వీడియో.. తెలంగాణ నుంచే వైరల్
సాక్షి, న్యూఢిల్లీ: దేశవ్యాప్తంగా హాట్ టాపిక్గా మారిన కేంద్ర హోంమంత్రి అమిత్షా డీప్ఫేక్ వీడియో ఎక్కడ నుంచి వచ్చిందనే సందేహానికి తెరపడింది. ఆ ఫేక్ వీడియోను మొదట పోస్ట్ చేసినది తెలంగాణ నుంచేనంటూ ప్రముఖ సోషల్ మీడియా సంస్థ ‘ఎక్స్’ (ట్విట్టర్) ఢిల్లీ స్పెషల్ సెల్ పోలీసులకు నివేదిక ఇచ్చింది. ఆ నివేదిక ఆధారంగా ఢిల్లీ పోలీసులు చర్యలు చేపట్టారు. మొదట పోస్ట్ చేసిన వ్యక్తిని అరెస్టు చేయాలని భావిస్తున్నారు. ఈ విషయంలో ‘ఎక్స్’ నుంచి మరింత సమాచారం కోసం వేచి చూస్తున్నారు.ల్యాండ్ లైన్ ఐపీ అడ్రస్ నుంచి..గత నెల 23న మెదక్ సభలో కేంద్ర హోంమంత్రి అమిత్ షా బీజేపీ గెలిస్తే.. ఎస్సీ, ఎస్టీ, బీసీ రిజర్వేషన్లను రద్దు చేస్తామంటూ మాట్లాడినట్టు ఓ వీడియో ప్రత్యక్షమైంది. ఎక్స్, ఫేస్బుక్ ఖాతాల్లో అది వైరల్గా అయి దేశవ్యాప్తంగా దుమారం రేపింది. దీనిపై కేంద్ర హోంశాఖ ఫిర్యాదు మేరకు.. ఢిల్లీ స్పెషల్ సెల్ పోలీసులు కేసు నమోదు చేసి దర్యాప్తు చేపట్టారు. దేశవ్యాప్తంగా నలుగురిని అరెస్టు చేశారు. తెలంగాణ సీఎం రేవంత్రెడ్డి, కాంగ్రెస్ పార్టీ సోషల్ మీడియా కన్వీనర్ మన్నె సతీశ్, శివకుమార్ అంబాలా, నవీన్, ఆస్మా తస్లీంలకు నోటీసులు జారీ చేశారు.మరోవైపు ఆ వీడియో ఎక్కడి నుంచి వచ్చింది, ఎవరు ముందు పోస్ట్ చేశారన్న దానిపై సమగ్ర నివేదిక ఇవ్వాలని ఎక్స్, ఫేస్బుక్లను స్పెషల్ సెల్ పోలీసులు ఆదేశించారు. ఈ మేరకు ప్రాథమిక నివేదిక ఇచ్చిన ‘ఎక్స్’ సంస్థ.. తొలుత ఆ వీడియో పోస్ట్ అయినది తెలంగాణ నుంచేనని వెల్లడించింది. ఒక ల్యాండ్లైన్ ఐపీ అడ్రస్ నుంచి ఈ వీడియో పోస్ట్ అయినట్టుగా పేర్కొంది. అయితే ఎవరు చేశారనేది ఇంకా వెల్లడించలేదు. దీంతో ఢిల్లీ స్పెషల్ సెల్ పోలీసులు మళ్లీ ‘ఎక్స్’కు లేఖ రాశారు. కచ్చితంగా ఎవరి ఐపీ అడ్రస్ నుంచి వచ్చింది? ఎక్స్లో పోస్ట్ చేసిన తర్వాత ఎంతమంది వీక్షించారు? ఎవరెవరు షేర్ చేశారు? కామెంట్లు/లైకులు తదితర సమగ్ర వివరాలు ఇవ్వాలని కోరారు. ‘ఎక్స్’ సంస్థ ఒకట్రెండు రోజుల్లో సమగ్ర నివేదిక అందించే అవకాశం ఉంది. -
Madhumita Murgia: డీప్ఫేక్ గుట్టు ఆమెకు తెలుసు
ఇప్పుడు డీప్ఫేక్ల వివాదం నడుస్తోంది. ఎన్నికల సమయంలోనే కాదు సర్వ కాలాల్లోనూ డీప్ఫేక్ వీడియోలు ప్రముఖులకు పెద్ద సవాలు. ఇక స్త్రీలకు ఇవి పీడగా పరిణమించాయి. వీటి గుట్టుమట్లు ఏమిటో ఆర్టిఫీషియల్ ఇంటెలిజెన్స్ నీడలో ఎలా జాగ్రత్తగా జీవించాలో తెలియచేస్తోంది ఆ రంగంలో నిపుణురాలు మధుమితా ముర్గియా.‘ఆర్టిఫీషియల్ ఇంటెలిజెన్స్ సహాయంతో తయారయ్యే డీప్ఫేక్ వీడియోలు ఎంత కచ్చితంగా ఉంటాయంటే నిజమైనవా, అబద్ధమైనవా కనిపెట్టడం బ్రహ్మతరం కూడా కాదు. డీప్ఫేక్ వీడియోలు ఎవరినీ వదలవు. ప్రముఖులు వీటివల్ల అభాసుపోలు కావచ్చు. కాని మామూలు స్త్రీలు దీని బాధితులవుతారు. డీప్ఫేక్లో వీడియోను మార్ఫింగ్ చేయొచ్చు. అంటే మీరు పోర్క్లో నడుస్తుంటే బీచ్లో నడుస్తున్నట్టుగా మార్చవచ్చు. దుస్తులతో ఉంటే దుస్తులు లేకుండా చేయొచ్చు. మరో పద్ధతి ‘ఇమేజ్ క్రియేటింగ్’. అంటే మీ వీడియో ఏమీ లేకపోయినా మీ ఇమేజ్ను పూర్తిగా సృష్టించి దానిని కావల్సినట్టుగా ఆడించవచ్చు. డీప్ఫేక్లో ఏ స్త్రీనైనా పోర్నోగ్రఫీ వీడియోలో ఉన్నట్టుగా భ్రమింపచేయవచ్చు. అదొక్కటే కాదు నిషేధిత సమయాల్లో నిషేధిత ప్రదేశాల్లో సంఘవ్యతిరేక శక్తుల మధ్య ఉన్నట్టుగా కూడా మిమ్మల్ని చూపోచ్చు. దీనికి అంతం లేదు. రాజకీయ ఉపన్యాసాలను డీప్ఫేక్తో మార్చి ఇబ్బంది పెట్టడం చాలా సులువు. ఆర్టిఫీషియల్ ఇంటెలిజెన్స్ వల్ల ప్రయోజనాలు ఎన్ని ఉన్నాయో ప్రమాదాలు అన్ని ఉన్నాయి. ఈ టెక్నాలజీ నాశనం అయ్యేది కాదు. మరింత పెరిగేది. దీని పట్ల ఎరుకతో ఉండటమే చేయగలిగింది’ అంటుంది మధుమితా ముర్గియా. ఆమె ఏ.ఐ. ఎక్స్పర్ట్.బ్రిటిష్ ఇండియన్ముంబైలో మూలాలు కలిగిన మధుమితా ముర్గియా లండన్లో పెరిగింది. అక్కడే చదువుకుంది. బయోలజిస్ట్గా, ఇమ్యూనాలజిస్ట్గా పని చేస్తూ టెక్ ఇండస్ట్రీ గురించి ఆసక్తి పెంచుకుంది. లండన్కు చెందిన ఫైనాన్షియల్ టైమ్స్ పత్రికకు ఏ.ఐ. ఎడిటర్గా పని చేస్తూ వ్యాపోర ప్రయోజనాల కోసం మన డేటా ఎలా వాడబడుతున్నదో, చేతిలోని ఫోన్ వల్ల మన ప్రైవసీకి ఎలా భంగం కలుగుతున్నదో ఆమె ప్రపంచానికి తెలియచేస్తూ వస్తోంది. అంతేకాదు ఈ విషయాల గురించి ఆమె రాసిన తాజా పుస్తకం ‘కోడ్ డిపెండెంట్’కు మంచి ప్రశంసలు వస్తున్నాయి. 2024 సంవత్సరానికి ఆమె బెస్ట్ సైన్స్ అండ్ టెక్నాలజీ జర్నలిస్ట్గా బ్రిటిష్ ప్రెస్ అవార్డ్ను గెలుచుకుంది.ఏ.ఐ.తో మంచి: ఆర్టిఫీషియల్ ఇంటెలిజెన్స్తో మూడు రంగాల్లో మంచి జరుగుతున్నదని అంటుంది మధుమిత. ‘ఆరోగ్య రంగంలో రిపోర్ట్ల ఆధారంగా పేషెంట్ వ్యాధిని ఏ.ఐ.తో గొప్ప స్పెషలిస్ట్ స్థాయిలో అంచనా కట్టొచ్చు. దీనివల్ల డాక్టర్ అపోయింట్మెంట్ కోసం వేచి ఉండే బాధ తప్పింది. ఫార్మాసూటికల్ రంగంలో కూడా ఏ.ఐ సేవలు బాగా ఉపయోగపడతాయి. ఇక సైన్స్ రంగంలో చేయాల్సిన పరిశోధనలు సులువవుతాయి. విద్యారంగంలో విద్యార్థుల రీసెర్చ్ కోసం ఏ.ఐ. ఉపయోగపడుతుంది. నేర పరిశోధనలో ఏ.ఐ.ని వాడి నేరస్తులను పట్టుకుంటున్నారు. ఇవన్నీ మంచి విషయాలే’ అంటుందామె.చెడు ఎంతో ఉంది:‘ఏ.ఐ. వల్ల రాబోయే ఐదేళ్లలో ఫొటోగ్రాఫర్లు అనేవాళ్లే లేకుండా పోవచ్చు. ఏ.ఐ. సహాయంతో ఎవరైనా సరే గొప్ప ఫొటోలు తీయవచ్చు. రచయితల బదులు ఏ.ఐ.తో కథలు రాయవచ్చు. కంప్యూటర్ల మీద జరగాల్సిన చాలా పనులు మనుషులు లేకుండానే జరిగే స్థితి రావచ్చు. దీనివల్ల లాభాలు సంస్థలకు వచ్చిన మనుషుల ఉనికి అంటే ఉద్యోగుల ఉనికి ఆందోళనలో పడుతుంది. చేతిలో ఫోన్ ఉంటే ఏ.ఐ. ద్వారా మీ ప్రతి కదలికను గుర్తించవచ్చు. మీరు ఇంట్లో ఉన్నా సురక్షితం కాదు. మీరు యాప్స్ ద్వారా కొనే వస్తువులను, మీరు వెళ్లే ఆస్పత్రులను, మీరు కొనే మందులను, వెళ్లే రెస్టరెంట్లను బట్టి రాబోయే కాలంలో మీ జీవితం ఎలా ఉంటుందో ఊహించి మీ చేత ఏమేమి కొనిపించాలో మిమ్మల్ని ఎలా వినియోగదారునిగా మార్చాలో ఏ.ఐ. ఆయా కంపెనీలకు చెబుతుంది. గతంలో ఒక టెక్నాలజీని అనేక ఏళ్లు పరీక్షించి జనానికి మేలు కలిగే విధంగా వదిలేవారు. ఏ.ఐ. లాంటివి మంచి చెడ్డలు పరీక్షించకనే వదిలారు. అవి రోజు రోజుకూ శక్తి పుంజుకుంటున్నాయి. ఏ.ఐ. నుంచి తప్పించుకోలేము. అలాగని మరీ అంత భయం కూడా అక్కర్లేదు. మానవశక్తి, మానవ జ్ఞానం కృత్రిమ యాంత్రిక జ్ఞానం కంటే ఎప్పుడూ గొప్పవే’ అంటోంది మధుమిత. -
జార్ఖండ్ కాంగ్రెస్ ‘ఎక్స్’ ఖాతా నిలిపివేత
న్యూఢిల్లీ, సాక్షి: జార్ఖండ్ కాంగ్రెస్ ఖాతాను ‘ఎక్స్’ (ట్విటర్) నిలిపివేసింది. చట్టపరమైన డిమాండ్కు ప్రతిస్పందనగా ఎక్స్ ఈ చర్య తీసుకున్నట్లు వార్తా సంస్థ ఏఎస్ఐ నివేదించింది. ఈ హ్యాండిల్పై కేంద్ర హోం మంత్రి అమిత్ షాకు సంబంధించిన 'డీప్ఫేక్ మార్ఫ్డ్ వీడియో' పోస్ట్ చేసిన తర్వాత ఖాతాను ‘ఎక్స్’ నిలిపివేసింది.మరోవైపు జార్ఖండ్ కాంగ్రెస్ అధ్యక్షుడు రాజేష్ ఠాకూర్కు ఢిల్లీ పోలీసు స్పెషల్ సెల్ బుధవారం తెల్లవారుజామున సీఆర్పీసీ సెక్షన్ 91 కింద నోటీసు జారీ చేసింది. మే 2న సెల్ కార్యాలయంలో హాజరు కావాలని కోరింది. ‘ఢిల్లీ పోలీసుల నుండి నోటీసు అందింది. కానీ నాకు ఎందుకు నోటీసు ఇచ్చారో అర్థం కాలేదు. ఇది అరాచకం తప్ప మరొకటి కాదు’ అని ఠాకూర్ స్పందించినట్లుగా పీటీఐ పేర్కొంది. -
సత్యానికి సవాల్!
కంటికి కనిపిస్తున్నదంతా నిజమేనా? ఏది సత్యం? ఏదసత్యం? వేసవి తాపానికి తోడు సార్వత్రిక ఎన్నికల ప్రచారపు వేడి ఎక్కువై, నేతలు పరస్పరం మాటల ఈటెలు విసురుకుంటున్న వేళ... కృతిమ మేధ (ఏఐ) సాయంతో ఇష్టారాజ్యపు మార్పుచేర్పుల నకిలీ వీడియోలు సోషల్ మీడియాలో ప్రచార మవుతున్నందున... ఇప్పుడు అందరూ అప్రమత్తం కావాల్సిన పరిస్థితి. సాక్షాత్తూ కేంద్ర హోమ్మంత్రి రిజర్వేషన్లపై వివాదాస్పద వ్యాఖ్యలు చేసినట్టు వీడియో ప్రచారమవుతుంది. ప్రముఖ నటుడు ఆమిర్ఖాన్ కాంగ్రెస్కు మద్దతుగా మాట్లాడినట్టు మరో వీడియో ప్రత్యక్షమవుతుంది. మరో ప్రముఖ నటుడు రణ్వీర్ సింగ్ కాశీలోని గంగాతీరంలో తన పుణ్యక్షేత్ర దర్శనానుభూతిని పంచుకుంటే ఆ మాటలు మోదీ, బీజేపీలకు మద్దతు పలికినట్టుగా నకిలీ వీడియోలో మారిపోతాయి. ఇదీ వర్తమాన ఎన్నికల్లో రాజకీయ వీడియోల వైచిత్రి. గడచిన 2019 సార్వత్రిక ఎన్నికలప్పుడు వాట్సప్ యూనివర్సిటీల్లో తప్పుడు సమాచారం వీరవిహారం చేస్తే, ఈసారి ఏఐ ఆధారిత విశ్వామిత్ర సృష్టి వీడియోలు నేతలకూ, ఓటర్లకూ సరికొత్త సవాళ్ళు విసురుతున్నాయి. నాటి ఐటీ బాట్ల నుంచి నేటి ఏఐ డీప్ఫేక్ల దాకా మన ఎన్నికల్లో అసత్య సమాచార వ్యాప్తి వెనక్కి రాలేనంత దూరం వెళ్ళిపోయింది.తాజాగా ఈ నకిలీ వీడియోల సెగ అధికార బీజేపీ నేతలకు గట్టిగానే తగిలింది. సాక్షాత్తూ ప్రధాని మోదీ, హోమ్ మంత్రి అమిత్షాలు ఈ అంశంపై తీవ్ర వ్యాఖ్యలు చేయడమే అందుకు నిదర్శనం. రిజర్వేషన్ల అంశంపై హోమ్ మంత్రి అనని మాటలను అన్నట్టుగా మార్చి చూపించిన ఫేక్ వీడియో ఇప్పటికే దేశవ్యాప్తంగా విస్తృత ప్రచారమైంది. సంచలనం రేపింది. తమతో సహా పలువురు బీజేపీ నేతల నకిలీ వీడియోలను ప్రచారంలో పెట్టి, శాంతియుత ఎన్నికల ప్రక్రియను దెబ్బతీయ డానికి ప్రతిపక్షాల వారు ప్రయత్నిస్తున్నారంటూ మోదీ ఆరోపించారు. ఎన్నికల వేళ పెద్ద తల నొప్పిగా మారిన ఈ అబద్ధపు వీడియోల వ్యాప్తిపై బీజేపీ ఇప్పటికే ఎన్నికల సంఘాన్ని ఆశ్రయించింది. పోలీసులకూ ఫిర్యాదు చేసింది. అమిత్షాకు సంబంధించిన మార్ఫింగ్ వీడియోను ‘ఎక్స్’ (గతంలో ట్విట్టర్) ఖాతాలో షేర్ చేశారనే ఆరోపణపై తెలంగాణ సీఎం రేవంత్ రెడ్డి సహా పలువురికి ఢిల్లీ పోలీసులు సమన్లు ఇవ్వడంపై సవాళ్ళు, ప్రతి సవాళ్ళ పర్వం నడుస్తోంది. మరోపక్క ఈ వీడియో వ్యవహారంపై అసోమ్లో ఒకరితో పలువురు అనుమానితుల్ని పోలీసులు అరెస్ట్ చేశారు. మొత్తం ఏడు విడతల్లో జరుగుతున్న లోక్సభ ఎన్నికల్లో మోదీ మంత్రం ఆశించినంతగా ఫలించడం లేదనీ, ‘ఈసారి 400 సీట్ల పైనే’ (అబ్ కీ బార్ 400 పార్) అన్న బీజేపీ నినాదం మంచి కన్నా చెడు చేస్తోందనీ ఒక విశ్లేషణ. ఈ పరిస్థితుల్లో ఈ డీప్ ఫేక్ వీడియోలు మరిన్ని వర్గాలను అధికార పార్టీకి దూరం చేసే ప్రమాదం లేకపోలేదు. అయితే, ఈ నకిలీ వీడియోల ముప్పు అధికార పార్టీకే కాదు... ప్రతిపక్షం సహా అన్ని పార్టీలకూ ఉంది. ఇంకా చెప్పాలంటే, గడచిన 2019 ఎన్నికలు ‘సోషల్ మీడియా ఎన్నిక’లైతే, ఈ 2024 ఎన్నికలు ‘ఏఐ యుగపు ఎన్నికల’ని నిపుణులు అభివర్ణిస్తున్నారు. సగటు ఓటరుకు మునుపెన్నడూ లేనంతగా తప్పుడు సమాచారమందే ప్రమాదం ఈసారి పెరిగింది. చేతిలో ప్రపంచాన్ని ఇమిడ్చిన స్మార్ట్ఫోన్లో వస్తున్నదంతా నిజమని నమ్మే ధోరణిని మార్చుకోక పోతే కష్టమే. వాట్సప్ సహా వివిధ మాధ్యమాల్లో షేర్ అవుతున్న వాటిలో ఏది అసలో, ఏది ఏఐతో మార్చిన నకిలీయో తెలుసుకోవడం తెలీక సామాన్యులు మోసపోయే ప్రమాదం మరీ ఎక్కువైంది. గతంలోనూ విద్వేషపూరిత వ్యాఖ్యలు, ప్రత్యర్థిని దెబ్బతీసే ప్రచారాలు లేకపోలేదు. కాకపోతే ఫలానా వర్గం ఎక్కువ మంది పిల్లల్ని కంటోంది, ఫలానా పార్టీ అధికారంలోకి వస్తే మంగళ సూత్రాలను సైతం లాగేసుకుంటుంది లాంటి మాటలు ఈ తడవ మాత్రమే ఏలికల నోట విని పిస్తున్నాయి. సాంకేతికత వెర్రితలలు వేయడంతో ఈసారి మరింత చిక్కొచ్చి పడింది. మొత్తం మన రాజకీయ సమాచార ప్రసార, ప్రచారాలు శరవేగంతో మారిపోయాయి. 2019 ఎన్నికల ముందు మన ‘జనగణమన’ను ప్రపంచ అత్యుత్తమ జాతీయ గీతంగా యునెస్కో ప్రకటించిందనే మెసేజ్ వాట్సప్లో తెగ తిరిగితే... ఇప్పుడు జనరేటివ్ ఏఐ సాయంతో మోదీ పెదాల కదలికకు అచ్చు గుద్దినట్టు సరిపోయేలా మూడు భాషల్లో ఆయన ప్రసంగపు యూట్యూబ్ షార్ట్ వంతు వచ్చింది. జనాన్ని ఎలాగోలా బురిడీ కొట్టించి, బుట్టలో వేసుకోవాలనే తపన, తాపత్రయం గడచిన అయి దేళ్ళలో కొత్త పుంతలు తొక్కింది. నిజానికి, సోషల్ మీడియా సంస్థలు సైతం ఫేక్ న్యూస్, ప్రాపగాండాలను అరికట్టడానికి కిందా మీదా పడుతున్నాయి. ఆన్లైన్లోనూ డీప్ఫేక్ను అడ్డుకొనేందుకు ప్రస్తుత చట్టాలను నవీకరించేందుకు భారత ప్రభుత్వమూ ప్రయత్నిస్తోంది. ఓట్లు, సీట్లు, అధికారమే పరమావధిగా మారిన కాలంలో ప్రతి పార్టీ ఒక సోషల్ మీడియా సైన్యాన్ని పెంచి పోషిస్తోంది. ఆన్లైన్ అసత్య ప్రచారాన్ని సైతం ఎన్నికల వ్యూహంలో ఒక భాగంగా అందరూ అనుసరిస్తున్న రోజులొచ్చిపడ్డాయి. సమాచారాన్ని వైరల్ చేసే బాట్లకు ఇప్పుడు విశ్వామిత్ర సృష్టి జనరేటివ్ ఏఐ కూడా జతపడేసరికి అగ్నికి ఆజ్యం తోడైంది. ఉచితంగా, కాదంటే కారుచౌకగా ఏఐ సహా రకరకాల ఉపకరణాలు అందుబాటులోకి రావడం ఆకతాయిలకూ వరమైంది. ఓ డీప్ఫేక్ వీడియో సృష్టికి మూడేళ్ళ క్రితం పది రోజులు పడితే, ఇప్పుడు మూడు నిమి షాల్లో చేయగలుగుతున్నారు. ఇవన్నీ సత్యాన్వేషణలో నేటి సవాళ్ళు. ఎన్నికల్లో అనియంత్రిత ఏఐ వినియోగానికి తక్షణం అడ్డుకట్ట వేయకుంటే అనర్థం తప్పదు. నేతలు, జర్నలిస్టులు, నటీనటులు ప్రధాన లక్ష్యంగా సాగుతున్న విషం చిమ్ముడుకు విరుగుడు వెతకాలి. లేదంటే, వ్యవస్థపైనే నమ్మకం పోతుంది. యావత్ సమాజం, ప్రజాస్వామ్యం నకిలీలతో నిండిపోతుంది. -
కాంగ్రెస్ మరింత దిగజారింది: అమిత్ షా మండిపాటు
ఢిల్లీ, సాక్షి: రాజకీయ పార్టీలు ప్రజలకు ఏం చేస్తామో చెప్పి పోరాడాలని, అంతేగానీ తప్పుడు వీడియోలతో కాదని బీజేపీ అగ్రనేత, కేంద్ర హోంశాఖ మంత్రి అమిత్ షా అన్నారు. తనపై ఫేక్ వీడియో ద్వారా జరుగుతున్న దుష్ప్రచారాన్ని ఖండించిన ఆయన.. రాహుల్ గాంధీ నేతృత్వంలో కాంగ్రెస్ రాజకీయాలు మరింత దిగజారిపోయానని మండిపడ్డారు.మంగళవారం ఢిల్లీలో ఆయన పలువురు మీడియా ప్రతినిధులతో మాట్లాడుతూ.. బీజేపీ 400 సీట్ల లక్ష్యంపై కాంగ్రెస్ తప్పుడు ప్రచారం చేస్తోంది. బీజేపీకే గనుక 400 సీట్లు దాటితే రిజర్వేషన్లు రద్దు చేస్తుందని చెబుతోంది. కానీ, ఎస్సీ, ఎస్టీ, ఓబీసీ రిజర్వేషన్ల కోటాల్లో కోత విధించింది కాంగ్రెస్సే. ఆంధ్రా, కర్ణాటకలో రిజర్వేషన్లపై కోత పెట్టింది.మాకు(బీజేపీ) గత రెండు పర్యాయాలు సంపూర్ణ మెజారిటీ వచ్చింది. కానీ, కాంగ్రెస్ మాదిరిగా మేం ఎమర్జెన్సీ విధించలేదు. ఆర్టికల్ 370, ట్రిపుల్ తలాక్ రద్దు కోసం ఆ సంపూర్ణ అధికారాన్ని ఉపయోగించాం. ఈ దఫా బీజేపీ 400 సీట్లు సాధిస్తుంది. ముగిసిన రెండు విడతల ఎన్నికల్లోనే వందకు పైగా సీట్లు వస్తాయని నమ్మకం ఉంది. దక్షిణ భారతంలోనూ బీజేపీకి మంచి ఫలితాలు వస్తాయి అని అమిత్ షా ఆశాభావం వ్యక్తం చేశారు.రాహుల్ గాంధీ నాయకత్వంలో కాంగ్రెస్ మరింతగా దిగజారుడు రాజకీయాలు చేస్తోంది. ఫేక్ వీడియోలు సృష్టించి ప్రచారం చేయడం బాధాకరం. కాంగ్రెస్ కూటమి ఓటమి భయంలో ఉండి పోయాయి. అందుకే అమేథీలోనూ పోటీకి కాంగ్రెస్ భయపడుతోంది అని షా అన్నారు. -
Narendra Modi: ఫేక్ వీడియోలపై ఉక్కుపాదమే
బాగల్కోట్/షోలాపూర్/సతారా: ఎన్నికల సమరంలో బీజేపీని ఎదుర్కొనే సత్తా లేక రాజకీయ ప్రత్యర్థులు అడ్డదారులను నమ్ముకున్నారని ప్రధానమంత్రి నరేంద్ర మోదీ అన్నారు. ఎన్నికల్లో గెలుస్తామన్న నమ్మకం లేనివారు కృత్రిమ మేధ సాయంతో ఫేక్ వీడియోలు సృష్టించి, తనపై, బీజేపీ నాయకులపై బురదజల్లుతున్నారని, తద్వారా సమాజంలో అశాంతిని సృష్టించాలన్నదే వారి లక్ష్యమని ఆరోపించారు. కృత్రిక మేధను దురి్వనియోగం చేస్తున్నారని, టెక్నాలజీని, సోషల్ మీడియాను స్వార్థ ప్రయోజనాల కోసం వాడుకుంటున్నారని ఆరోపించారు. అచ్చంగా తన గొంతును పోలిన గొంతుతో ఫేక్ వీడియోలు సృష్టిస్తున్నారని, తాను అనని మాటలు అన్నట్లుగా ప్రజల్లోకి తీసుకెళ్తున్నారని ఆందోళన వ్యక్తం చేశారు. నిర్ధారణ కాని, తప్పుడు సమాచారాన్ని సోషల్ మీడియాలో పోస్టు చేస్తున్నారని, ఇది నిజంగా ప్రమాదకరమైన ధోరణి అన్నారు. ఇలాంటి ఫేక్ వీడియోలపై పోలీసులకు గానీ, బీజేపీకి గానీ ఫిర్యాదు చేయాలని ప్రజలకు విజ్ఞప్తి చేశారు. తప్పుడు పనులు చేసినవారిపై చట్టపరమైన చర్యలు తప్పవని హెచ్చరించారు. ఫేక్ వీడియోలపై ఉక్కుపాదం మోపుతామని స్పష్టంచేశారు. తప్పుడు సమాచారంతో ఇతరులను అప్రతిష్టపాలు చేయడం మన చట్టం అనుమతించదని తేలి్చచెప్పారు. సోమవారం కర్ణాటకలోని బాగల్కోట్, మహారాష్ట్రలోని షోలార్పూర్, సతారాలో ఎన్నికల ప్రచార సభల్లో ప్రధాని మోదీ ప్రసంగించారు. రాబోయే నెల రోజుల్లో దేశంలో ఒక పెద్ద సంఘటన సృష్టించడానికి శత్రువులు ప్రణాళిక సిద్ధం చేసినట్లు ఆరోపించారు. సామాజిక అశాంతి, అల్లకల్లోలం రేపడానికి ప్రయత్నాలు జరుగుతున్నాయని, అవాంఛనీయ ఘటనలు చోటుచేసుకొనే అవకాశం ఉందని అన్నారు. తాను చాలా సీరియస్గా ఈ ఆరోపణలు చేస్తున్నానని చెప్పారు. ఫేక్ వీడియోల నుంచి మన సమాజాన్ని కాపాడుకోవాల్సిన బాధ్యత మనపై ఉందన్నారు. ఇలాంటి వీడియోలపై కఠిన చర్యలు తీసుకోవాలని ఎన్నికల సంఘానికి విజ్ఞప్తి చేశారు. ఫేక్ వీడియోలను తెలిసీ తెలియక సోషల్ మీడియాలో షేర్ చేస్తే కేసుల్లో ఇరుక్కుంటారని, అప్రమత్తంగా ఉండాలని ప్రజలకు సూచించారు. రిజర్వేషన్ల రక్షణకు ఎంత దూరమైనా వెళ్తా.. దేశంలో ఎస్సీ, ఎస్టీ, ఓబీసీలు బీజేపీ వెంట నడుస్తుండడంతో మైనారీ్టలను మచి్చక చేసుకోవడానికి కాంగ్రెస్ కొత్త కుట్రలకు తెరలేపిందని ప్రధాని మోదీ ఆరోపించారు. ఆ పార్టీ ఓటు బ్యాంకు రాజకీయాల ను నమ్ముకుందని, అధికారంలోకి వస్తే మతం ఆధారంగా రిజర్వేషన్లు ఇవ్వడానికి ప్రణాళికలు సిద్ధం చేస్తోందని చెప్పారు. కాంగ్రెస్ ఆటలు సాగనివ్వబోనని స్పష్టం చేశారు. దళి తులు, ఆదివాసీ, ఓబీసీల రిజర్వేషన్లను కాపాడడానికి ఎంత దూరమైనా వెళ్తానని, ఈ మేరకు వారికి గ్యారంటీ ఇస్తున్నానని మో దీ వివరించారు. టెక్నాలజీ హబ్గా పేరుగాంచిన బెంగళూరు కాంగ్రెస్ పాలనలో ట్యాంకర్ హబ్గా మారిందని ఎద్దేవా చేశా రు. ట్యాంకర్ మాఫియా ప్రజలను దోచుకుంటోందని, ఇందులో కమీషన్లు కాంగ్రెస్ నేతలకు చేరుతున్నాయని దుయ్యబట్టారు. -
Lok sabha elections 2024: ఫేక్ రాజకీయం!
కేంద్ర హోం మంత్రి అమిత్ షా ఏప్రిల్ 23న తెలంగాణలో లోక్సభ ఎన్నికల ప్రచార సభలో ప్రసంగించారు. కేంద్రంలో బీజేపీ మళ్లీ అధికారంలోకి వస్తే మతపరమైన ముస్లిం రిజర్వేషన్లను రద్దు చేస్తామని, ఎస్సీ, ఎస్టీ, ఓబీసీల హక్కులను వారికి తిరిగిస్తామని ప్రకటించారు. అయితే మొత్తంగా రిజర్వేషన్లనే రద్దు చేస్తామని అమిత్ షా చెప్పినట్టుగా మారి్ఫంగ్ చేసిన వీడియో తాజాగా దేశవ్యాప్తంగా వైరలవుతోంది. లోక్సభ ఎన్నికల్లో తీవ్ర నష్టం చేయగల ఈ పరిణామాన్ని బీజేపీ సీరియస్గా తీసుకుంది. కేంద్ర హోం శాఖ ఫిర్యాదుతో ఢిల్లీ పోలీసులు హుటాహుటిన రంగంలోకి దిగారు. దీంతో సంబంధముందంటూ అసోంలో ఒకరిని అదుపులోకి తీసుకున్నారు. అంతేగాక ఈ నకిలీ వీడియోను తెలంగాణ కాంగ్రెస్ విస్తృతంగా షేర్ చేసిందంటూ పీసీసీ చీఫ్ అయిన సీఎం రేవంత్రెడ్డికి ఏకంగా సమన్లు జారీ చేశారు! సోమవారం హైదరాబాద్ వచ్చి మరీ రేవంత్, పీసీసీ సోషల్ మీడియా ఇన్చార్జి, మరికొందరు కాంగ్రెస్ నేతలకు నోటీసులిచ్చారు! అమిత్ షా మార్ఫింగ్ వీడియోను ఎక్స్లో పోస్టు చేశారన్నది రేవంత్పై ఆరోపణ. రాజకీయంగా తీవ్ర కలకలం రేపుతున్న ఈ పరిణామంతో డీప్ ఫేక్ ముప్పు మరోసారి తీవ్ర చర్చనీయాంశంగా మారింది...దేశం ఇప్పుడు సమాచార యుద్ధాన్ని ఎదుర్కొంటోంది. సాంకేతికత సమాచారాన్ని ఎంత వేగంగా ప్రచారం చేస్తోందో అంతే వేగంగా దేశాన్ని ప్రమాదంలోనూ పడేస్తోంది. ముఖ్యంగా కృత్రిమ మేధతో పుట్టుకొచి్చన వికృత శిశువు ‘డీప్ ఫేక్’ ఎన్నికల్లో పెద్ద అస్త్రంగా మారిపోయింది. పారీ్టలు ఫేక్ వీడియోలతో తమ ప్రత్యర్థులపై దు్రష్పచారం చేస్తున్నాయి. పలు రాష్ట్రాల్లో ఇటీవల జరిగిన అసెంబ్లీ ఎన్నికల్లో ఫేక్ వీడియోలు విపరీతంగా కలకలం రేపడమే గాక ఓటర్లపైనా బాగా ప్రభావం చూపాయి. ఈ లోక్సభ ఎన్నికల్లో కూడా ఫేక్ వీడియోల జోరు మామూలుగా లేదు! పలు పార్టీలు తమ చేతికి మట్టి అంటకుండా డీప్ ఫేక్లను వీలైనంతగా వాడుకుంటున్నాయి. చౌక బేరండీప్ ఫేక్లను రూపొందించడానికి అవసరమైన కృత్రిమ మేధ సాధనాలు కారుచౌకగా అందుబాటులో ఉన్నాయి. కొన్నయితే ఉచితం కూడా! దాంతో పారీ్టలన్నీ ఓటర్లను ప్రభావితం చేయడానికి ఎడాపెడా డీప్ ఫేక్లను తయారు చేసి వదులుతున్నట్టు వాటి నిర్వాహకులే చెబుతున్నారు. టీవీ వార్తలు మొదలుకుని ఫేస్బుక్, వాట్సాప్ వంటి గ్లోబల్ ప్లాట్ఫాంల దాకా నకిలీ వార్తల రూపకల్పన, ప్రచారాల్లో దూసుకుపోతున్నారు. ఇవి ఒకసారి జనంలోకి వెళ్లాక ఏం చేసినా నష్ట నివారణ కష్టమే.ఏఐ వాడకం..బీజేపీతోనే మొదలు... » ప్రచారంలో సాంకేతికతను వాడకంలో అధికార బీజేపీ ఎంతో ముందంజలో ఉంది. » ఆ పార్టీ 2012లోనే మోదీ త్రీడీ హాలోగ్రామ్ను వాడింది! దీని ద్వారా ఒకేసారి అనేక ప్రదేశాల్లో ప్రచారంలో పాల్గొనవచ్చు. » ఈ వ్యూహాన్ని 2014 లోక్సభ ఎన్నికల్లో విస్తృతంగా అమలు చేశారు. » ప్రచారం కోసం డీప్ఫేక్లను వాడిన తొలి నేతగా ఢిల్లీ బీజేపీ ఎంపీ, సినీ నటుడు మనోజ్ తివారీ నిలిచారు. 2020లో ఫిబ్రవరిలో ఢిల్లీ అసెంబ్లీ ఎన్నికల వేళ హిందీ, హర్యాణ్వీ, ఇంగ్లిష్ భాషల్లో ఓటర్లనుద్దేశించి మూడు వీడియోల్లో ప్రసంగించారు. వీటిలో హిందీ వీడియో మాత్రమే అసలుది. మిగతా రెండూ డీప్ ఫేక్లు. కానీ ఏ మాత్రమూ గుర్తించలేనంత పకడ్బందీగా తివారీ గొంతు, పెదవుల కదలిక తదితరాలను మార్చారు! గతి తప్పుతున్న వ్యూహం అధికారికంగా, బహిరంగంగా జరిగే డీప్ ఫేక్ వ్యవహారాన్ని మించి ప్రత్యర్థులపై బురదజల్లేలా ‘అనైతిక ప్రచారం’ జోరుగా సాగుతోంది. వాట్సాప్లో అంతర్జాతీయ నంబర్లు, ఇన్స్టా్రగాంలో బర్నర్ హ్యాండిల్స్ తదితరాల ద్వారా ఇలాంటి కంటెంట్ ప్రజలను చేరుతోంది. రాజకీయ ప్రత్యర్థుల వీడియోలు, ఆడియోలకు అభ్యంతరకర, అశ్లీల కంటెంట్ను జోడిస్తూ డీప్ ఫేక్లు హోరెత్తిస్తున్నాయి. పలు సంస్థలు ఇలాంటి కంటెంట్ తయారీతో పాటు దాన్ని వైరల్ చేసే బాధ్యతనూ తీసుకుంటున్నాయి. రాజస్తాన్ అసెంబ్లీ ఎన్నికల్లో ఇలా నిర్మాణ కారి్మకుల ఫోన్ నంబర్ల సాయంతో డీప్ ఫేక్లను విచ్చలవిడిగా వైరల్ చేశారు. అభ్యర్థులు అవినీతిపరులని చూపేందుకు డబ్బులు తీసుకుని ఓటేయాలని ఓటర్లను బెదిరిస్తున్నట్టు, డబ్బు పంచుతున్నట్టు వీడియోలు, ఆడియోలు రూపొందించి ప్రచారం చేశారు. ప్రత్యర్థులపైనే గాక సొంత పారీ్టలోనూ శత్రువులపైనా కొందరు ఇలాంటి ప్రచారాలకు దిగుతున్నారు!చట్టాలకావల మన దేశంలో డీప్ ఫేక్ ఎన్నికల సమగ్రతకే ముప్పుగా మారుతోంది. ప్రస్తుత చట్టాలేవీ డీప్ ఫేక్ను స్పష్టంగా నిర్వచించడం లేదు. వ్యక్తిగత కేసుల్లో ఐటీ చట్టంతో కలిపి, పరువు నష్టం, నకిలీ వార్తలు, వ్యక్తి ప్రతిష్టకు భంగం, ప్రైవసీ ఉల్లంఘన వంటి చట్టాలను వాడుతూ పోలీసులు నెట్టుకొస్తున్నారు. నిరాశపరిచిన మ్యూనిచ్ ఒప్పందం డీప్ ఫేక్లను నియంత్రించాలంటూ గూగుల్, మెటా వంటి టెక్ దిగ్గజాలపై కేంద్రం ఒత్తిడి తెస్తోంది. ఎన్నికల ప్రక్రియను ప్రభావితం చేసేందుకు కృత్రిమ మేధ సాధనాలను వాడకుండా జాగ్రత్తలు తీసుకుంటామంటూ ప్రముఖ టెక్ కంపెనీలు మ్యూనిచ్ సదస్సులో ఒప్పందానికి వచి్చనా ఆచరణలో పెద్దగా జరిగిందేమీ లేదు. గతేడాది తెలంగాణలోనూ అసెంబ్లీ ఎన్నికల ముందు ఇలాంటిదే జరిగింది. కాంగ్రెస్కు ఓటేయాలంటూ బీఆర్ఎస్ ముఖ్య నేత కేటీఆర్ ప్రజలకు పిలుపునిస్తున్న వీడియో క్లిప్ పోలింగ్కు ముందు రోజు తెగ వైరలైంది. దాన్ని లక్షలాది మంది చూశారు. ఇదీ కృత్రిమ మేధ సాయంతో రూపొందిన డీప్ ఫేక్ వీడియోనే.నోట్ దీజ్ పాయింట్స్» భారత్లో జనాభాలో సగానికి పైగా, అంటే ఏకంగా 76 కోట్ల పై చిలుకు ఇంటర్నెట్ వినియోగదారులున్నారు. » కనుక ఆన్లైన్ ప్రచారం శరవేగంగా ప్రజలను చేరుతోంది. » రీల్స్, షార్ట్స్ ప్రపంచాన్ని ఏలుతున్న ఈ రోజుల్లో ఒక్క క్లిక్, ఒక్క స్వైప్తో ఓటరు అభిప్రాయాన్ని మార్చొచ్చు. కనీసం ప్రభావితం చేయొచ్చు. » పార్టీ అభిమానులు పెద్దగా పట్టించుకోకున్నా తటస్థ ఓటర్లను ఇలాంటి ప్రచారం ప్రభావితం చేయగలదు. » ఈ అంశాన్ని తమ అభిమాన పార్టీలకు సానుకూలంగా మలిచే ప్రయత్నాలు జరుగుతున్నాయి. » అందుకే కృత్రిమ మేధతో పుట్టుకొచ్చే ‘మానిప్యులేటెడ్ కంటెంట్’ ఈ లోక్సభ ఎన్నికల్లో అనేక రెట్లు పెరగనుందని అంచనా. తప్పుడు ప్రచారంతో ఒక్క ఓటర్ మనసు మార్చినా అది స్వేచ్ఛాయుత ఎన్నికల ప్రక్రియకు గొడ్డలిపెట్టే. ఈ తప్పుడు ప్రచార సరళి మీద ఈసీ దృష్టి పెట్టి ప్రజాస్వామ్యానికి చేటుగా మారుతున్న డీప్ఫేక్లను నియంత్రించాల్సిన అవసరముంది. నష్టం జరగకముందే చర్యలు తీసుకోవాలి– కేంద్ర ఎన్నికల మాజీ ప్రధాన కమిషనర్ ఎస్వై ఖురేషీ–సాక్షి, నేషనల్ డెస్క్ -
రాహుల్ గాంధీ ప్రధానిగా ప్రమాణ స్వీకారం! ఆడియో వైరల్
ఇటీవల కాలంలో ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ (ఏఐ) టెక్నాలజీ ఉపయోగించి తయారు చేస్తున్న డీప్ ఫేక్ వీడియోలు కలకలం సృష్టిస్తున్నాయి. సినీ రాజకీయ ప్రముఖులకు డీప్ ఫేక్ వీడియోలు తలనొప్పిగా మారుతున్నాయి. ఈ క్రమంలో తాజాగా రాహుల్ గాంధీకి సంబంధించిన ఏఐ జనరేటెడ్ వాయిస్ క్లిప్ ఒకటి నెట్టింట వైరల్గా మారింది. అయితే రాహుల్ గాంధీ.. ప్రధానమంత్రిగా ప్రమాణ స్వీకారం చేస్తున్నట్లు ఆ వాయిస్ క్లిప్ విపిస్తుంది. ఏఐ వాయిస్తో పాటు.. మ్యూజిక్, ఢిల్లీలోని ఎర్రకోట దృష్యాలు కూడా ఉన్నాయి. అయితే ఈ ఆడియో క్లిప్ను కొందరు కాంగ్రెస్ మద్దతుదారులు షేర్ చేయటంతో సోషల్ మీడియాలో వైరల్గా మారింది.The day is soon… on June 4… The Prime Minister will be Rahul Gandhi… pic.twitter.com/ymrLZC447q— Aaron Mathew (@AaronMathewINC) April 25, 2024 ఒకవైపు లోక్సభ ఎన్నికల ప్రచారం జోరుగా జరుగుతున్న వేళ.. రాహుల్ గాంధీ ప్రమాణం చేసినట్లు ఆడియో క్లిప్ వైరల్ కావటంతో నెటిజన్లు తమ నేతకు మద్దతుగా కామెంట్లు పెడుతూ వీడియో క్లిప్ షేర్ చేస్తున్నారు.‘ఆ రోజు త్వరలోనే రానుంది.. అది జూన్ 4’, ‘రాహుల్ గాంధీ ప్రధాని అవుతారు’అని నెటిజన్లు కామెంట్లు పెట్టారు. అయితే ఈ ఆడియో క్లిప్.. ఏఐ వాయిస్ క్లోన్ అని కొన్ని డిటెక్షన్ టూల్స్ నిర్ధారణ చేశాయి. ఆడియో, వీడియో రెండు వేరుగా చేసి.. ఫ్యాక్ట్ చేయగా ఈ క్లిప్ ఏఐ జనరేటెడ్గా తేలిందని పేర్కొంటున్నాయి. ఇది ఫేక్ ఆడియో క్లిప్ అని తేల్చాయి. ఇక.. ఇటీవల ఇదే తరహాలో కాంగ్రెస్ నేత కమల్నాథ్ ఏఐ వాయిస్ క్లోన్ క్లిప్ ఒకటి వైరల్గా మారింది. అందులో ఆయన ఆర్టికల్ 370 గురించి మాట్లాడినట్టు ఉంది. -
‘వాటిలో పెట్టుబడి పెడితే రూ.కోట్లే..’
డీప్ఫేక్.. ఇటీవల చాలామంది నుంచి వినిపిస్తున్న పదం. ఈ టెక్నాలజీ వాస్తవానికి, కల్పనకు మధ్య తేడాను చెరిపేస్తోంది. క్రియేటివిటీ పేరుతో బోగస్ అంశాలను, వక్రీకరించిన సమాచారాన్ని వ్యాప్తి చేయడానికి, వ్యక్తిగతంగా టార్గెట్ చేయడానికి దీన్ని వాడుతున్నారు. సినీ స్టార్లు, క్రికెటర్లు, రాజకీయ నాయకులతోపాటు స్టాక్మార్కెట్ ప్రముఖులు సైతం ఈ టెక్నాలజీ అరాచకానికి బలవుతున్నారు. ప్రముఖుల ఫేస్, వాయిస్తో ‘ఫలానా స్టాక్లో పెట్టుబడి పెట్టండి.. భారీ లాభాలు సొంతం చేసుకోండి’ అంటూ డీప్ఫేక్ వీడియోలు వెలుస్తున్నాయి. తాజాగా నేషనల్ స్టాక్ ఎక్స్ఛేంజ్ (ఎన్ఎస్ఈ) ఎండీ, సీఈఓ ఆశిష్కుమార్ చౌహాన్ సైతం దీని బారినపడ్డారు. చౌహాన్ స్టాక్స్ సిఫార్సు చేస్తున్నట్లు, ఫలానా కంపెనీలో పెట్టుబడులు పెట్టాలని సూచిస్తున్నట్లు కొన్ని డీప్ఫేక్ వీడియోలు, ఆడియోలు సోషల్మీడియాలో వైరల్ అవుతున్నాయని ఎన్ఎస్ఈ తెలిపింది. ఈమేరకు ప్రకటన విడుదల చేసింది. ‘కొన్ని మీడియాల్లో చక్కర్లు కొడుతున్న వీడియోలు, ఆడియోల్లో ఏమాత్రం నిజం లేదు. ప్రతి సమాచారాన్ని, అప్డేట్లను సంబంధిత వెబ్సైట్లో తెలియజేస్తాం. స్టాక్లకు సంబంధించి ఎలాంటి సిఫార్సులు సంస్థ చేయదు. ఈమేరకు ఇన్వెస్టర్లు, రిటైలర్లు అప్రమత్తంగా ఉండాలి. ప్రతి సమాచారాన్ని ధ్రువీకరించుకోవాలి. నకిలీ వీడియోలు, ఇతర మాధ్యమాల నుంచి వచ్చే పెట్టుబడి సలహాలు అనుసరించొద్దు’ అని ఎన్ఎస్ఈ వివరించింది. ఇదీ చదవండి: మస్క్ భారత పర్యటనకు డేట్ ఫిక్స్.. ఏం జరగబోతుందంటే.. ఎన్నికల సమయంలోనూ.. ఎన్నికల సమయంలో రాజకీయ నాయకుల స్వరాన్ని, ముఖాన్ని అనుకరించి డీప్ఫేక్స్ను వ్యాప్తిచేసే ప్రమాదం ఉందని ఇప్పటికే నిపుణులు పలుమార్లు హెచ్చిరించిన విషయం తెలిసిందే. అధికార పార్టీలు, ప్రతిపక్ష పార్టీల మాటలను వక్రీకరించి ఓటర్లను తప్పుదోవ పట్టించే ప్రమాదం ఉందన్నారు. డీప్ఫేక్కు సంబంధించిన ప్రమాదాలను నివారించేలా నిబంధనలు రూపొందించాలని నిపుణులు కోరుతున్నారు. -
క్రియేటివిటీ పేరుతో అరాచకం..!
డీప్ఫేక్.. ఇటీవల చాలామంది నుంచి వినిపిస్తున్న పదం. ఇది టెక్నాలజీ వాస్తవానికి, కల్పనకు మధ్య తేడాను చెరిపేస్తోంది. క్రియేటివిటీ పేరుతో బోగస్ అంశాలను, వక్రీకరించిన సమాచారాన్ని వ్యాప్తి చేయడానికి, వ్యక్తిగతంగా టార్గెట్ చేయడానికి దీన్ని వాడుతున్నారు. సార్వత్రిక ఎన్నికల నేపథ్యంలో ఈ డేప్ఫేక్ వల్ల మరింత ప్రమాదం పొంచి ఉందని నిపుణులు అభిప్రాయపడుతున్నారు. మెషీన్ లెర్నింగ్, ఫేస్ రికగ్నిషన్ టెక్నాలజీ సహాయంతో అచ్చం నిజమైనదిగా భ్రమింపజేసే నకిలీని మొట్టమొదటిసారిగా 2017లో రెడిట్ అనే సామాజిక వెబ్సైట్ వినియోగదారుడొకరు సృష్టించారు. దాన్నే డీప్ఫేక్గా వ్యవహరిస్తున్నారు. అప్పటి నుంచి నకిలీ చిత్రాలు, ఆడియో వీడియోలతో రూపొందించే డీప్ఫేక్ల వినియోగం ఒక్కసారిగి ప్రాచుర్యంలోకి వచ్చింది. దాంతో వ్యక్తిగత గోప్యతతోపాటు ప్రజాస్వామ్య ప్రక్రియ హానికరంగా మారుతోంది. డీప్ఫేక్లలో రెండు రకాలు ఉంటాయి. ఒకటి- అసలు వ్యక్తి ముఖానికి బదులు వర్చువల్ చిత్రాన్ని వాడే డీప్ఫేస్. అలాగే ఒక వ్యక్తి స్వరాన్ని అనుకరించడం డీప్వాయిస్. డీప్ఫేక్ ప్రక్రియ వాణిజ్య ప్రకటనల రంగంలో బాగా ప్రాచుర్యంలోకి వచ్చింది. పాశ్చాత్య దేశాల్లో టేలర్ స్విఫ్ట్, సెలీనా గోమెజ్ వంటి పాప్ గాయనుల ముఖం, స్వరాలను ఉపయోగించి వాణిజ్య ప్రకటనలు చేయడం దీనికి ఉదాహరణ. అలాగే కొన్ని రోజులక్రితం ప్రముఖ నటి రష్మిక మందన్నా డీప్ఫేక్ సైతం ప్రచారంలోకి వచ్చింది. వారు వాస్తవంగా పాలుపంచుకోకపోయినా వారి ముఖం, స్వరాలను అనుకరించి డీప్ఫేక్ ఆడియో వీడియోలు రూపొందించారు. మరణించిన నటులను సజీవంగా ఉన్నట్లు భ్రమింపజేసిన హాలీవుడ్ చిత్రాలూ వచ్చాయి. దీనికి కృత్రిమ మేధ (ఏఐ) తోడ్పడుతోంది. డీప్ఫేక్ ప్రకటనలకు పురస్కారాలు.. మరోవైపు వ్యాపార సంస్థలు తమ ఉత్పత్తులు, సేవలకు ప్రాచుర్యం కల్పించడానికి డీప్ఫేక్ పరిజ్ఞానాన్ని సృజనాత్మకంగా ఉపయోగిస్తున్నాయి. మాండలీజ్, ఐటీసీ, జొమాటో వంటి కంపెనీలు ఈ తరహా ప్రచారాన్ని చేస్తున్నట్లు తెలిసింది. షారుఖ్ ఖాన్, హృతిక్ రోషన్, సచిన్ తెందుల్కర్ వంటి ప్రసిద్ధ నటులు, క్రీడాకారులతో సాధారణ వినియోగదారులు సమావేశమైనట్లు, వారితో కలిసి అభినయిస్తున్నట్లూ చూపడానికి డీప్ఫేక్ పరిజ్ఞానాన్ని నేర్పుగా ఉపయోగిస్తున్నారు. మాండలీజ్ సంస్థ ఈ పరిజ్ఞానంతో రూపొందించిన ప్రకటనలకు కాన్స్ సృజనాత్మక లయన్స్ ఉత్సవంలో పురస్కారాలు సైతం లభించాయి. ఈ సంస్థ భారత్లో కృత్రిమ మేధను ఉపయోగించి విడుదల చేసిన ప్రకటనకు టైటానియం లయన్ పురస్కారం కూడా దక్కింది. ఇదీ చదవండి: మిమిక్రీ టూల్ను పరిచయం చేసిన ప్రముఖ ఏఐ సంస్థ ఎన్నికల సమయంలో అప్రమత్తంగా.. ఎన్నికల సమయంలో రాజకీయ నాయకుల స్వరాన్ని, ముఖాన్ని అనుకరించి డీప్ఫేక్స్ను వ్యాప్తిచేసే ప్రమాదం ఉందని నిపుణులు చెబుతున్నారు. అధికార పార్టీలు, ప్రతిపక్ష పార్టీల మాటలను వక్రీకరించి ఓటర్లను తప్పుదోవ పట్టించే ప్రమాదం ఉందంటున్నారు. ఈ విషయంలో ఓటర్లు అప్రమత్తంగా ఉండాలంటున్నారు. డీప్ఫేక్కు సంబంధించిన ప్రమాదాలను నివారించేలా నిబంధనలు రూపొందించాలని సూచిస్తున్నారు. -
Meloni: డీప్ఫేక్ వీడియోలపై దావా వేసిన ఇటలీ ప్రధాని
రోమ్: ఇటలీ ప్రధాని జార్జియా మెలోని డీప్ఫేక్ కంటెంట్కు వ్యతిరేకంగా ఉద్యమం మొదలుపెట్టారు. స్వయంగా తానే బాధితురాలినంటూ మీడియా ముందుకు వచ్చారామె. అంతేకాదు.. ఆ వీడియోలను అప్లోడ్ చేసిన వ్యక్తులపై లక్ష యూరోలకు పరువు నష్టం దావా వేశారు. ఇటలీ ప్రధాని జార్జియా మెలోని పేరిట వీడియోలు అశ్లీల సైట్లలో అప్లోడ్ అయ్యాయి. ఓ పోర్న్స్టార్ ముఖానికి మెలోనీ ముఖాన్ని డీప్ఫేక్ టెక్నాలజీతో మార్ఫింగ్ చేసి ఆ వీడియోలను అప్లోడ్ చేశారు ఇద్దరు. ఆ వీడియోలను అమెరికాలో గత కొన్ని నెలలుగా కొన్ని లక్షల మంది వీక్షించారు. ఈ విషయం తన దృష్టికి రావడంతో ఆమె సత్వరమే స్పందించారు. ఆ ఇద్దరిపై లక్ష యూరోల(మన కరెన్సీలో 90 లక్షల రూపాయల దాకా) పరువు నష్టం దావా వేశారామె. ఈ కేసుకు సంబంధించి విచారణ నిమిత్తం జులై 2వ తేదీన ఆమె కోర్టుకు హాజరు కానున్నారు. ఇక.. ప్రధాని లాంటి ఉన్నత పదవిలో ఉన్న తానే డీప్ఫేక్కు వ్యతిరేకంగా ముందుకు వచ్చానని, బాధితులు ముందుకు వచ్చి ధైర్యంగా పోరాడాలని ఆమె పిలుపు ఇచ్చారు. ఇక ఈ కేసులో నిందితుల నుంచి తీసుకునే పరిహారాన్ని హింసకు గురైన మహిళలకు విరాళంగా మెలోనీ ఇస్తారని ప్రధాని లీగల్ టీం ప్రకటించింది. నిందితులను తండ్రీ కొడుకులుగా(40, 72 ఏళ్లు) గుర్తించిన దర్యాప్తు అధికారులు.. స్మార్ట్ ఫోన్ ద్వారా ఆ వీడియోలను అప్లోడ్ చేసినట్లు నిర్ధారించారు. అయితే.. మెలోనీ ప్రధాని కాకముందే 2022లో ఆ వీడియోలు అప్లోడ్ కావడం గమనార్హం. ఇదిలా ఉంటే.. ఇటలీ చట్టాల ప్రకారం ఇలాంటి పరువు నష్టం దావాలు తీవ్రంగా నేరాలుగా పరిగణించబడ్తాయి. బాధితులకు పరిహారం ఇప్పించడంతో పాటు నిందితులకు జైలు శిక్ష విధిస్తారు కూడా. సంబంధిత వార్త: ఇంటర్నెట్ నిండా ఫేక్ ఫొటోలు, అశ్లీల వీడియోలు! -
ప్రజాస్వామ్యంలో ఏఐ పాత్ర
ప్రపంచంలోని చాలా దేశాల్లో ఈ ఏడాది ఎన్నికలు ముంచుకొస్తున్నాయి. కృత్రిమ మేధ (ఏఐ) తన మొదటి ప్రధాన నైతిక పరీక్షను ఎదుర్కొనే సంవత్సరంగా ఈ 2024 ఉండబోతోంది. ఈ సంవత్సర ప్రారంభంలో బంగ్లాదేశ్, స్లొవేకియాల్లో జరిగిన ఎన్నికల్లో ప్రధాన అభ్యర్థులను దెబ్బగొట్టడానికి ‘డీప్ ఫేక్’ను వాడుకున్నారు. అదే సమయంలో, జైలు నుంచే ఇమ్రాన్ ఖాన్ తన ఓటర్లకు పిలుపునివ్వడంలో కూడా జెనరేటివ్ ఏఐ సాయపడింది. ప్రజాస్వామ్యాన్ని నాశనం చేసే పాత్రకు భిన్నంగా కృత్రిమ మేధను ఎలా ఉపయోగించుకోవచ్చో పాకిస్తాన్ చేసి చూపించింది. ప్రజాస్వామ్యానికి మూల స్తంభమైన ఎన్నికల ప్రక్రియను మెరుగుపరచడానికి కృత్రిమ మేధ చాలా సాయపడగలదు. తక్కువ ఖర్చుతో, అధిక సామర్థ్యంతో అభ్యర్థులు తమ ప్రచారాన్ని నిర్వహించుకోవడంలోనూ ఇది ఎంతగానో ఉపయోగపడగలదు. గత రెండేళ్లుగా, కృత్రిమ మేధ (ఆర్టిఫిషియల్ ఇంటెలిజెన్స్–ఏఐ)... దాని ద్వారా ఉత్పన్నమైన ఉత్సాహం, అది కలిగించిన అంతరాయాలపై సాంకేతిక కథనాలు ఆధిపత్యం చలాయించాయి. కాపీరైట్, పక్షపాతం, గోప్యత, డీప్ఫేక్ (వ్యక్తుల వాస్తవ చిత్రాన్ని మార్చి అప్రతిష్ఠకు పాల్పడటం) వంటి నైతిక సమస్యలు ఎదురు కావడంతో, 2023 చివరి భాగంలో ఈ కథనాలు కొద్దిగా పసలేనివిగా మారిపోయాయి. ఇప్పుడు, చాలా దేశాల్లో ఎన్నికలు ముంచుకొస్తున్నాయి. ఈ నేపథ్యంలో ప్రజాస్వామ్యానికి సహాయపడినా లేదా దానిని నాశనం చేసినా... కృత్రిమ మేధస్సు తన మొదటి ప్రధాన నైతిక పరీక్షను ఎదుర్కొనే సంవత్సరంగా 2024 ఉండబోతోంది. భారత్, అమెరికా, బ్రిటన్, ఇండోనేషియా, ఇతర ప్రధాన ప్రజాస్వామ్య దేశాలు ఈ సంవత్సరం కీలకమైన ఎన్నికలకు వెళుతున్నాయి. జనరేటివ్ ఏఐ కంటే ముందే డీప్ఫేక్లు ఉనికిలో ఉన్నప్పటికీ – ‘సోరా’, ‘స్టేబుల్ డిఫ్యూజన్’ వంటివి వాటి ఉత్పత్తిని ప్రజాస్వామీకరించాయి. వాటిని సులభంగా, వేగంగా, చౌకగా మార్చేశాయి. వాట్సాప్, టిక్ టోక్ మొదలైనవి అంతర్జాతీయ పంపిణీని అత్యంత సులభంగా మార్చేయడంతో సోషల్ మీడియాకు సంబంధించి శిఖరస్థాయి దశలో ఉన్నాం. బంగ్లాదేశ్, స్లొవేకియా ఈ సంవ త్సరం ప్రారంభంలో ఎన్నికలకు వెళ్లాయి. ఈ సందర్భంగా చాలా డీప్ఫేక్లు వచ్చాయి. బంగ్లాదేశ్ ప్రతిపక్ష నాయకుడు పాలస్తీనియన్లకు తన మద్దతు విషయంలో సందిగ్ధంగా ఉన్నట్లు చూపటం జరిగింది. ఇది ఆ దేశంలో ఒక వినాశకరమైన వైఖరి. స్లొవేకియా ఎన్నికలలో, ఒక ప్రధాన పోటీదారు ఎన్నికల రిగ్గింగ్ గురించి, మరింత ప్రమాదకరంగా బీరు ధరను పెంచడం గురించి మాట్లాడినట్లు చూపారు. ఇది ఆయన ఓటమికి కారణమైంది. మరోవైపు అమెరికా అధ్యక్షుడు జో బైడెన్ నకిలీ వాయిస్ అమెరికా ప్రైమరీలలో ఓటు వేయవద్దని ప్రజ లను కోరింది. 2016 కేంబ్రిడ్జ్ అనలిటికా(డేటా స్కాండల్) వైఫల్యానికి చెందిన జ్ఞాపకాలు ఇంకా తాజాగా ఉన్నాయి. పెద్ద ఎన్నికలు సమీపి స్తున్నందున ఇవి ప్రమాద ఘంటికలు మోగిస్తున్నాయి. అయినప్పటికీ, నేను ఇక్కడ భిన్న వైఖరిని తీసుకుంటాను. పాకిస్తాన్ వైపు చూడండి. అక్కడ మాజీ ప్రధాని జైల్లో ఉన్న సమయంలో ఎన్నికలు జరిగాయి. ఆయన పార్టీ గుర్తులు లాక్కుని, వారి అభ్యర్థులను నిర్బంధిస్తామని బెదిరించారు. చివరికి ఇతర పార్టీలు గెలిచినట్లు ప్రకటించినప్పటికీ, భారీ రిగ్గింగ్, అవకతవకలు జరిగి నప్పటికీ ఇమ్రాన్ ఖాన్ పార్టీకి కచ్చితమైన మెజారిటీ వచ్చిందని చాలా నివేదికలు పేర్కొన్నాయి. కటకటాల్లో ఉండి కూడా, దేశవ్యాప్తంగా ప్రచారం చేయడానికి జనరేటివ్ ఏఐని ఉపయోగించుకోవడం ద్వారా, ప్రజాస్వామ్యాన్ని అణచివేశానని తనపై వచ్చిన కథనాన్ని ఇమ్రాన్ ఖాన్ వమ్ముచేయగలిగారు. తన ఓటర్లను బయటకు వచ్చి తన పార్టీకి ఓటు వేయమని ఇమ్రాన్ కోరిన దృశ్యాలను రూపొందించడానికి జనరేటివ్ ఏఐని ఉపయోగించుకున్నారు. ఇది యూట్యూబ్తోపాటు ఇతర ఆన్ లైన్ ఛానెళ్లలో విస్తృతంగా షేర్ అయింది. ప్రజలు ఆయన పిలుపును విని రికార్డు సంఖ్యలో బయటకు వచ్చారు. ఆయన అభ్య ర్థులకు ఆశ్చర్యకరమైన విజయాలు అందించారు. ప్రజాస్వా మ్యాన్ని నాశనం చేసే పాత్రకు భిన్నంగా, కృత్రిమ మేధస్సును ఎలా ఉప యోగించుకోవచ్చో పాకిస్తాన్ చేసి చూపించింది. డీప్ఫేక్ల విధ్వంసక శక్తిని నేను తిరస్కరించడం లేదు. భారత్లో, ఇతర దేశాల్లోని ఎన్నికలలో చర్చను ప్రేరేపించడానికీ, కథనాలను రూపొందించడానికీ వాటిని ఉపయోగిస్తారని నేను భయ పడుతున్నాను కూడా. అయినప్పటికీ, ప్రజాస్వామ్యానికి మూల స్తంభమైన ఎన్నికల ప్రక్రియను మెరుగుపరచడానికి కృత్రిమ మేధ చాలా సాయపడగలదు. పాకిస్తాన్ ఉదాహరణ దీనికి సంబంధించి ఒక సృజనాత్మక మార్గం. ఎన్నికల్లో పారదర్శకతను, సమ్మిళితత్వాన్ని, సమర్థతను పెంపొందించడానికి కూడా ఏఐని ఉపయోగించవచ్చు. దాని అధునాతన డేటా విశ్లేషణ సామర్థ్యాలు ఎన్నికల సంబంధిత డేటాను నిజ సమయంలో పర్యవేక్షించగలవు. మోసపూరిత కార్యా చరణను సూచించే ఏవైనా అవకతవకలను ఇట్టే గుర్తించగలవు. ఏఐ అల్గారిథమ్లు ఓటరు నమోదులు లేదా బ్యాలెట్ సమర్పణలో అక్ర మాలకు సంబంధించిన నమూనాలను గుర్తించగలవు. ఎలక్ట్రానిక్ ఓటింగ్ సిస్టమ్ల భద్రతను కూడా ఏఐ మెరుగు పరుస్తుంది. అదనంగా, ప్రమాదాలను కనిపెట్టే అల్గారి థమ్లు... సంభవించగల సైబర్ ప్రమాదాలను గుర్తించడంలో కూడా సహాయపడతాయి. స్థానిక సమస్యలపై దృష్టి సారించే అభ్య ర్థులపై, వారి మాని ఫెస్టోలపై ప్రజల స్థానిక మాండలికాలలో అత్యంత సున్నితమైన వ్యక్తిగత కంటెంట్ని రూపొందించడంలో జెనరేటివ్ ఏఐ సహాయ పడుతుంది. తద్వారా ఓటరు అవగాహనను నవీకరించడంలో తోడ్పడుతుంది. ముఖ్యంగా వ్యక్తిగతీకరించిన విధానం విస్మృత వర్గాల్లో రాజకీయ అవగాహనను పెంపొందించగలదు. దీన్ని అధిక సామర్థ్యంతో చాలా తక్కువ ఖర్చుతో చేయ డంలో జెనరేటివ్ ఏఐ ఉపయోగపడుతుంది. తద్వారా తక్కువ డబ్బు ఉన్న అభ్యర్థులకు కూడా అధికారం లభించేలా చేస్తుంది. కృత్రిమ మేధతో నడిచే వ్యవస్థలు వైకల్యాలున్న ఓటర్లకు ప్రాప్యతను కూడా మెరుగుపరుస్తాయి. ఉదాహరణకు, అతిశక్తిమంతమైన వాయిస్ రికగ్నిషన్ సిస్టమ్లు దృష్టి లోపం ఉన్న ఓటర్లకు సహాయపడతాయి. రాజకీయ సంభాషణలో సమాజంలోని అన్ని వర్గాలకు ప్రాతినిధ్యం ఉండేలా చూసేందుకు, జన సమూహాలలో ప్రజల అభిప్రాయాన్ని అంచనా వేయడానికి కూడా కృత్రిమ మేధను అన్వయించవచ్చు. ఎన్నికల నిర్వహణ లాజిస్టిక్స్ వంటివాటిని కూడా అనుకూలపర్చవచ్చు. ఖర్చులు ఆదా చేయవచ్చు. ఇది భారతదేశం వంటి పెద్ద దేశాలకు చాలా ముఖ్యమైనది. ఓటరు నమోదును, ధ్రువీ కరణను మరింత సమర్థవంతంగా చేయడంలో కృత్రిమ మేధ సహాయపడుతుంది. అర్హతను ధ్రువీకరించడానికి అవసరమైన డేటాను సరైన సమయంలో విశ్లేషించడం ద్వారా పొడవాటి క్యూలు లేకుండా చేస్తుంది. చివరగా, కృత్రిమ మేధ అనేది ద్వంద్వ వినియోగ సాంకేతికతను కలిగివున్నది. అపారమైన విధ్వంసక శక్తితో పాటు భారీ ప్రయో జనాలను ఇది కలిగి ఉంది. ఎన్నికలపై దాని ప్రతికూల ప్రభావాన్ని డీప్ఫేక్ల రూపంలో మనం చూడటానికి ప్రయత్నిస్తున్నప్పుడు, మన ప్రజాస్వామ్యాలను అది ఎలా మెరుగుపరుస్తుందో కూడా చూడాలి. పర్ఫెక్టుగా లేకపోయినా, ఇమ్రాన్ ఖాన్ పార్టీ ఈ సామర్థ్యాన్ని ప్రపంచానికి చూపడంలో విజయం సాధించింది. జస్ప్రీత్ బింద్రా వ్యాసకర్త సాంకేతికాంశాల మేధావి (‘ది మింట్’ సౌజన్యంతో) -
మరోసారి డీప్ఫేక్ బారిన పడిన రష్మిక..
డీప్ఫేక్ టెక్నాలజీ సెలెబ్రీటీలకు శాపంగా మారింది. ఈ సరికొత్త టెక్నాలజీని ఎక్కువ శాతం చెడు పనులకే ఉపయోగిస్తున్నారు. చిత్రపరిశ్రమకు చెందిన పలువురు నటీనటులకు సంబంధించిన ఫేక్ వీడియోలు తయారు చేసి వాటిని నెట్టింట్లో వైరల్ చేస్తున్నారు. ముఖ్యంగా హీరోయిన్స్కి సంబంధించిన ఫోటోలను అసభ్యకరంగా ఎడిట్ చేస్తున్నారు. ఇప్పటికే రష్మిక, కాజోల్, కత్రినాతో పాటు పలువురు హీరోయిన్లు మరో డీప్ఫేక్ బారినపడ్డారు. గతంలో రష్మికకు సంబంధించిన ఫేక్ వీడియో వైరల్ కావడంతో డీప్ఫేక్పై దేశవ్యాప్తంగా పెద్దఎత్తున వ్యతిరేకత వచ్చింది. అమితాబ్తో పాటు పలువురు సెలబ్రిటీలు దీనిపై సీరియస్ అయ్యారు. ఇలాంటివి చేసిన వారిని శిక్షించాలని డిమాండ్ చేశారు. ఈ నేపథ్యంలో పోలీసులు నిందితుడిని అదుపులోకి తీసుకున్నారు. అలాంటి ఫేక్ వీడియోలు క్రియేట్ చేసే వారిపై కఠిన చర్యలు తీసుకుంటామని ప్రభుత్వం హెచ్చరించింది. అయినా కూడా సెలబ్రెటీలకు సంబంధించిన ఫేక్ వీడియోలు వైరల్ అవుతూనే ఉన్నాయి. తాజాగా రష్మిక మరోసారి డీప్ఫేక్ బారిన పడింది. ఆమెకు సంబంధించిన ఓ ఫేక్ వీడియో ఇప్పుడు నెట్టింట్లో చక్కర్లు కొడుతోంది. అందులో రష్మిక అసభ్యకరంగా డ్యాన్స్ చేస్తూ కనిపిస్తుంది. డ్యాన్స్ చేస్తున్న ఓ యువతి ముఖాన్ని ఎడిట్ చేసి రష్మిక ఫేస్ని యాడ్ చేశారు. ఈ వీడియోపై పలువురు వ్యతిరేకత వ్యక్తం చేశారు. ఇలాంటి ఫేక్ వీడియోలు సృష్టించొద్దని రష్మిక మందన్న అభిమానులు విజ్ఞప్తి చేస్తున్నారు. ఇలాంటి వారిపై పోలీసులు కఠిన చర్యలు తీసుకోవాలని డిమాండ్ చేస్తున్నారు. రష్మిక ప్రస్తుతం ఓ లేడి ఓరియెంటెడ్ ఫిల్మ్తో పాటు పుష్ప 2లో నటిస్తోంది. అల్లు అర్జున్ హీరోగా నటిస్తున్న ఈ చిత్రం ఆగస్ట్ 15న ప్రేక్షకుల ముందుకు రాబోతుంది. -
డీప్ఫేక్ బారినపడ్డ యోగి ఆదిత్యనాథ్
టెక్నాలజీ పెరుగుతున్న తరుణంలో డీప్ఫేక్ (Deepfake) మహమ్మారిలా వ్యాపిస్తోంది. చాలా మంది సెలబ్రిటీలు ఇప్పటికే ఈ డీప్ఫేక్ బారిన పడ్డారు. డీప్ఫేక్ బారినపడ్డ ప్రముఖుల జాబితాలోకి తాజాగా ఉత్తరప్రదేశ్ ముఖ్యమంత్రి 'యోగి ఆదిత్యనాథ్' కూడా చేరారు. డయాబెటిస్ మెడిసిన్ను 'ఆదిత్యనాథ్' ప్రచారం చేస్తున్నట్లు డీప్ఫేక్ వీడియో సోషల్ మీడియాలో వైరల్ అయింది. వీడియో వైరల్ అయిన తర్వాత, ఈ వీడియోకు కారణమైన ఫేస్బుక్ ఖాతాపై ఐపీసీ 419, 420, 511 సెక్షన్స్ కింద సైబర్ క్రైమ్ పోలీసులు ఎఫ్ఐఆర్ నమోదు చేశారు. ప్రముఖులకు సంబంధించిన డీప్ఫేక్ వీడియోలు వెలుగులోకి రావడం ఇదే మొదటిసారి కాదు. ఇప్పటికే ప్రధాని నరేంద్ర మోదీ, క్రికెటర్ సచిన్ టెండూల్కర్, సినీ యాక్టర్స్ రష్మిక మందన్న, కత్రినా కైఫ్, కాజోల్, అలియా భట్లకు సంబంధించిన డీప్ఫేక్ వీడియోలు నెట్టింట్లో వైరల్ అయ్యాయి. -
ఆ టెక్నాలజీతో జాగ్రత్త!.. మంత్రులను హెచ్చరించిన మోదీ
భారత ప్రధాని 'నరేంద్ర మోదీ' నిన్న ఢిల్లీలో జరిగిన మంత్రి మండలి చివరి అధికారిక సమావేశానికి అధ్యక్షత వహించి సుమారు గంటసేపు ప్రసంగిస్తూ.. కొన్ని హెచ్చరికలు జారీ చేశారు. 2024 లోక్సభ ఎన్నికలకు ముందు వివాదాలకు దూరంగా ఉండాలని, డీప్ఫేక్ పట్ల జాగ్రత్తగా ఉండాలని ప్రధాని నరేంద్ర మోదీ తన మంత్రులకు సూచించారు. ఏదైనా ప్రకటనలు చేసే ముందు తప్పకుండా జాగ్రత్తలు తీసుకోవాలని, డీప్ఫేక్ టెక్నాలజీతో ప్రత్యర్థులు ఎంత దారుణానికైనా ఒడిగడతారని మోదీ వెల్లడించారు. భారతీయ జనతా పార్టీ (బీజేపీ) రాబోయే లోక్సభ 2024 ఎన్నికల కోసం 195 మంది అభ్యర్థులతో మొదటి జాబితాను విడుదల చేసిన ఒక రోజు తర్వాత ఈ సమావేశం జరిగింది. ప్రధాని మోదీ మళ్లీ యూపీలోని వారణాసి నుంచి పోటీ చేయనుండగా, కేంద్ర హోంమంత్రి అమిత్ షా గుజరాత్లోని గాంధీనగర్ బరిలోకి దిగారు. వాస్తవాలను వక్రీకరించే దిశలో కొందరు డీప్ఫేక్ టెక్నాలజీ వాడతారని డీప్ఫేక్ల సమస్యను గురించి మోదీ వివరించారు. గతంలో కూడా దీని గురించి వెల్లడిస్తూ.. ఏఐ రూపొందించిన ఫోటోలు, వీడియోలు నిజమైనవిగా కనిపిస్తాయని పేర్కొన్నారు. దీనికి ఉదాహరణ తాను గార్బా చేస్తున్నట్లు చూపించిన వీడియో అని వెల్లడించారు. ఇదీ చదవండి: 2047 నాటికి అభివృద్ధి చెందిన దేశంగా భారత్.. భవిష్యత్ వెల్లడించిన మోదీ -
Virat Kohli: సెలవులో ఉన్న కోహ్లి.. విష ప్రచారం!
Virat Kohli- Deepfake: సులభంగా డబ్బు సంపాదించాలని అడ్డదారులు తొక్కే సైబర్ నేరగాళ్లు సెలబ్రిటీలను టార్గెట్ చేస్తున్నారు. సాంకేతిక పరిజ్ఞానాన్ని దుర్వినియోగం చేసి నకిలీ వీడియోలు సృష్టించి సామాజిక మాధ్యమాల్లో వదులుతున్నారు. ప్రముఖ హీరోయిన్ రష్మిక మందన్న డీప్ఫేక్ వీడియో తర్వాత ఈ విపరీత ధోరణి మరింత ఎక్కువైంది. సినీ సెలబ్రిటీలతో పాటు సచిన్ టెండుల్కర్ వంటి దిగ్గజ క్రికెటర్లను సైతం సైబర్ క్రిమినల్స్ వదలడం లేదు. టీమిండియా స్టార్ బ్యాటర్ విరాట్ కోహ్లి కూడా తాజాగా ఈ బాధిత జాబితాలో చేరాడు. ఓ బెట్టింగ్ యాప్ను కోహ్లి ప్రమోట్ చేస్తున్నట్లు డీప్ఫేక్ వీడియో వైరల్ అవుతోంది. తాను తక్కువ డబ్బులు పెట్టుబడిగా పెట్టి.. భారీ మొత్తంలో ఆర్జించినట్లు కోహ్లి చెబుతున్నట్లుగా ఉన్న వీడియోను... ఏకంగా ఓ టీవీ చానెల్ ప్రత్యక్ష ప్రసారం చేస్తున్నట్లు క్రియేట్ చేశారు సైబర్ మాయగాళ్లు. ఇది నిజమా? ఏఐ మాయా? గతంలో కోహ్లి ఇచ్చిన ఇంటర్వ్యూలోని మాటలను టెక్నాలజీని ఉపయోగించి తమకు అనుగుణంగా మార్చుకుని.. నిజమైన వీడియో అన్నట్లుగా నమ్మించే ప్రయత్నం చేశారు. ఈ దృశ్యాలను నెట్టింట షేర్ చేసిన ఓ జర్నలిస్టు.. ‘‘నిజంగా విరాట్ కోహ్లి ఇలాంటివి ప్రోత్సహిస్తున్నాడా? లేదంటే ఇదంతా ఏఐ(కృత్రిమ మేధ) మాయా? ఒకవేళ అదే నిజమైతే.. వీడియో అసలైనదానిలా చిత్రీకరించడంలో సృష్టికర్తలు సఫలమయ్యారు. టెక్నాలజీని మరీ ఇంత దుర్వినియోగం చేస్తారా? ఒకవేళ ఈ వీడియో నిజమే అయితే పెద్దగా పట్టించుకోవాల్సిన అవసరం లేదు! మీలో ఎవరికైనా వాస్తవం ఏమిటో తెలిస్తే చెప్పండి’’ అని పేర్కొన్నారు. ఇందుకు స్పందించిన నెటిజన్లు.. ‘‘ఇది కచ్చితంగా ఆర్టిఫిషియల్ ఇంటెలిజిన్స్ మాయ అని అర్థమవుతోంది’’ అని అభిప్రాయపడుతున్నారు. ఇంగ్లండ్తో టెస్టు సిరీస్కు దూరం కాగా వ్యక్తిగత కారణాల దృష్ట్యా విరాట్ కోహ్లి స్వదేశంలో ఇంగ్లండ్తో టెస్టు సిరీస్కు దూరమైన విషయం తెలిసిందే. కుటుంబానికి సమయం కేటాయించిన అతడు.. సెలవు పొడగించుకున్నాడు. ఈ నేపథ్యంలో కోహ్లి నిర్ణయాన్ని గౌరవిస్తామని.. అత్యవసరం అయితే తప్ప ఈ దిగ్గజ బ్యాటర్ సెలవు పెట్టడని బీసీసీఐ కార్యదర్శి జై షా తెలిపాడు. ఈ పరిణామాల క్రమంలో కోహ్లి- అనుష్క శర్మ దంపతులు రెండోసారి తల్లిదండ్రులు కాబోతున్నారని.. అయితే, ప్రెగ్నెన్సీలో ఇబ్బందులు తలెత్తాయనే వార్తలు పుట్టుకొచ్చాయి. ఈ క్రమంలో ఓ ప్రముఖ వ్యాపారవేత్త.. విరుష్క జోడీ లండన్లో రెండో బిడ్డకు జన్మనివ్వనున్నారంటూ ట్వీట్ చేసి దుమారం రేపారు. ఈ నేపథ్యంలో తాజాగా కోహ్లి పేరిట ఇలాంటి వీడియో ప్రత్యక్షం కావడం గమనార్హం. చదవండి: రోహిత్, కోహ్లిలా హీరో అయ్యే వాడిని.. కానీ ఆరోజు ధోని ఎందుకలా చేశాడో? -
డీప్ఫేక్స్పై పోరు
న్యూఢిల్లీ: డీప్ ఫేక్స్ వంటి కృత్రిమ మేధ ఆధారిత తప్పుడు సమాచార వ్యాప్తిని కట్టడి చేసేందుకు టెక్ దిగ్గజం మెటా, మిస్ఇన్ఫర్మేషన్ కంబాట్ అలయన్స్ (ఎంసీఏ) జట్టు కట్టాయి. వాస్తవాలను చెక్ చేసేందుకు ఉపయోగపడేలా వాట్సాప్లో ప్రత్యేక హెల్ప్లైన్ను ప్రవేశపెడుతున్నాయి. ఇది 2024 మార్చి నుంచి అందరికీ అందుబాటులోకి రానుంది. దీనికి సంబంధించిన చాట్బాట్కు ప్రజలు డీప్ఫేక్ల గురించిన సమాచారాన్ని పంపవచ్చు. ఆ మెసేజీలను విశ్లేíÙంచేందుకు ఎంసీఏ ప్రత్యేక యూనిట్ను (డీఏయూ) ఏర్పాటు చేస్తుంది. ఈ వాట్సాప్ చాట్బాట్ ఇంగ్లీష్తో పాటు తెలుగు, హిందీ, తమిళ భాషల్లో అందుబాటులో ఉంటుంది. పరిశ్రమ కూటమి అయిన ఎంసీఏలో 16 సంస్థలకు సభ్యత్వం ఉంది. -
డీప్ఫేక్ వీడియో కాల్తో 15 నిమిషాల్లో 200 కోట్లు కాజేశారు!
డీప్ఫేక్! ఆర్టిపిషియల్ ఇంటెలిజెన్స్ సాయంతో చేసే ఈ టెక్నాలజీ గురించి పెద్దగా పరిచయం అక్కర్లేదు. క్రియేటివ్, ఎంటర్టైన్మెంట్ కోసం రూపొందించిన ఈ టెక్నాలజీతో ఇటీవల మోసాలు పెరిగిపోయాయి. కొద్ది రోజుల క్రితం ప్రముఖ హీరోయిన్ రష్మిక విషయంలో జరిగిందిదే. డీప్నెక్ బ్లాక్ డ్రెస్ వేసుకున్న వేరే అమ్మాయి వీడియోను మార్షింగ్ చేసి రష్మికలా రూపొందించడంతో దేశంలో పెద్ద ఎత్తున చర్చకు దారి తీసింది. ఇలా వీడియోలు చేయడమే కాదు.. ఫోన్లో వీడియో కాల్ చేసి నిమిషాల వ్యవధిలో వందల కోట్లు కొల్లగొడుతున్నారు. తాజాగా, బ్లూమ్బెర్గ్ నివేదిక ప్రకారం.. ఓ అంతర్జాతీయ కంపెనీకి చెందిన హాంకాంగ్ కార్యాలయం డీప్ఫేక్ వీడియో కాల్ కుంభకోణంలో చిక్కుకుంది. ఫలితంగా 15నిమిషాల్లో 200 కోట్లు పోగొట్టుకుంది. సైబర్ నేరస్తులు వీడియో కాల్ సమయంలో సదరు కంపెనీ చీఫ్ ఫైనాన్షియల్ ఆఫీసర్ (CFO) పోలి ఉండేలా డీప్ఫేక్ వీడియోను తయారు చేశారు. ఇందుకోసం యూట్యూబ్లో దొరికే వీడియోల్ని ఉపయోగించుకున్నారు. ఆపై వీడియో కాల్లో మాట్లాడేందుకు అచ్చం మనుషులను పోలి ఉండేలా డీప్ ఫేక్ ప్రతి రూపాలను రూపొందించారు. అనంతరం స్కామర్లు కంపెనీ సీఎఫ్ఓ డీప్ఫేక్ వీడియోలో తాను చెప్పినట్లుగా ఐదు హాంకాంగ్ బ్యాంక్ ఖాతాలకు 25.6 మిలియన్ల మొత్తాన్ని 15 బ్యాంక్ అకౌంట్లకు ట్రాన్స్ఫర్ చేయాలని కోరారు. సీఎఫ్ఓ ఆదేశాలతో ఉద్యోగులు వెంటనే ఏమాత్రం ఆలోచించకుండా డీప్ఫేక్ వీడియో కాల్లో నిందితులు చెప్పినట్లు చేశారని సీనియర్ సూపరింటెండెంట్ బారన్ చాన్ షున్ చింగ్ పేర్కొన్నారు. ప్రస్తుతం ఈ అంశం చర్చనీయాంశంగా మారడంతో డీప్ఫేక్ వీడియోల పట్ల యూజర్లు అప్రమత్తంగా ఉండాలని టెక్నాలజీ నిపుణులు సూచిస్తున్నారు. -
డీప్ఫేక్ ఆందోళనకరం
వాషింగ్టన్: ప్రముఖుల ఫొటోలు, వీడియోలను దురి్వనియోగం చేస్తూ కృత్రిమ మేథ(ఏఐ)తో సృష్టిస్తున్న డీప్ ఫేక్ నకిలీ ఫొటోలు, వీడియోల ధోరణి అత్యంత భయంకరమైనదని మైక్రోసాఫ్ట్ సీఈవో సత్య నాదెళ్ల వ్యాఖ్యానించారు. ప్రఖ్యాత పాప్ గాయని టైలర్ స్విఫ్ట్ నకిలీ అసభ్య ఫొటోలు తాజాగా సోషల్ మీడియాలో చక్కర్లు కొట్టాయి. దీనిపై ఒక ఇంటర్వ్యూలో సత్య నాదెళ్ల ఆవేదన వెలిబుచ్చారు. ‘‘ప్రముఖుల డీప్ ఫేక్ ఫొటోలు, వీడియోల సృష్టి, వ్యాప్తికి అడ్డుకట్ట పడాల్సిందే. ప్రభుత్వాల, సోషల్మీడియా సంస్థల తక్షణ స్పందన అవసరం. సురక్షితమైన, వాస్తవిక సమాచారం మాత్రమే ఆన్లైన్లో లభించేలా సాంకేతికతను, రక్షణ వ్యవస్థను బలోపేతం చేయాలి. ప్రభుత్వాలు నిబంధనలను సవరించి కట్టుదిట్టంచేయాలి. ఇది మనందరి బాధ్యత’’ అని అన్నారు. -
డీప్ఫేక్ బారిన సోనూసూద్.. వీడియో వైరల్!
సెలబ్రిటీల డీప్ఫేక్ వీడియోలు ఇప్పుడు సోషల్ మీడియాలో కలకలం రేపుతున్నాయి. ఇప్పటికే రష్మిక, అలియా భట్, కృతిసనన్ లాంటి స్టార్ హీరోయిన్లకు సబంధించిన డీప్ఫేక్ వీడియోలు నెట్టింట్లో వైరల్ అయ్యాయి. తాజాగా ప్రముఖ నటుడు, ‘రియల్ హీరో’ సోనూసూద్ సైతం డీప్ఫేక్ బారిన పడ్డాడు. సైబర్ నేరగాళ్లు సోనుసూద్ డీప్ఫేక్ వీడియోతో మోసాలకు పాల్పడుతున్నారు. అతని ఫేస్తో ఫేక్ వీడియో రెడీ చేసి.. అభిమానుల నుంచి డబ్బులు వసూలు చేస్తున్నారు. ఇందుకు సంబంధించిన వీడియోని సోనూసూద్ తన ట్విటర్(ఎక్స్) ఖాతాలో షేర్ చేస్తూ.. ఇలాంటి వాటిపై జాగ్రత్తగా ఉండాలని సూచించాడు. (చదవండి: రష్మిక వీడియో.. డీప్ ఫేకర్ అరెస్ట్) ‘కొందరు నా డీప్ఫేక్ వీడియోని క్రియేట్ చేసి అభిమానులతో చాటింగ్, వీడియో కాల్స్ చేస్తూ డబ్బులు వసూలు చేయాలని చూస్తున్నారు. కొంతమంది ఫ్యాన్స్ ఈ వీడియోలో ఉన్నది నేనే అనుకొని సైబర్ నేరగాళ్ల వలలో పడుతున్నారు. ఇలాంటి వీడియో కాల్స్ వస్తే నమ్మకండి. జాగ్రత్తగా ఉండండి. నిజ జీవితంలో జరిగిన ఇలాంటి ఘటనల మీదే నేను ఫతే అనే సినిమా తీస్తున్నాను. ఫేక్ వీడియోస్, లోన్ యాప్స్ వల్ల జరుగుతున్న సైబర్ నేరాలను ఆ సినిమాలో చూపించబోతున్నాం’అని సోనూసూద్ తెలిపారు. రష్మికకు సంబంధించిన ఓ వీడియో వైరల్ కావడంతో డీప్ఫేక్ వ్యవహారం బయటపడింది. ఆ తర్వాత సినీ సెలెబ్రిటీలు వరుసగా డీప్ఫేక్ బారిన పడ్డారు. మాస్టర్ బ్లాస్టర్ సచిన్ టెండూల్కర్కు సంబంధించిన డీప్ఫేక్ వీడియో కూడా ఇటీవల నెట్టింట వైరల్గా మారింది. వీటిపై ఇప్పటికే పలువురు ప్రముఖులు ఆగ్రహం వ్యక్తం చేశారు. ఫేక్ వీడియోను క్రియేట్ చేస్తున్నవారిపై కఠిన చర్యలు తీసుకోవాలని డిమాండ్ చేస్తున్నారు. తాజాగా రష్మిక డీప్ఫేక్ వీడియోను తయారు చేసిన వ్యక్తిని ఢిల్లీ పోలీసులు అరెస్ట్ చేశారు. ఆంధ్రప్రదేశ్కి చెందిన వ్యక్తియే ఈ ఫేక్ వీడియో తయారు చేసినట్లు తెలుస్తోంది. My film FATEH is inspired by real life incidents involving Deep Fake and fake loan apps. This is the latest incident where someone tried to extract money from an unsuspecting family, by chatting with them through video call pretending to be Sonu sood. Many innocent individuals… pic.twitter.com/cXNBsa4nvC — sonu sood (@SonuSood) January 18, 2024 -
హీరోయిన్ రష్మిక వీడియో.. ఎట్టకేలకు నిందితుడి అరెస్ట్
సరిగ్గా ఓ రెండు నెలల క్రితం డీప్ ఫేక్ వీడియో సినీ ఇండస్ట్రీలో టాక్ ఆఫ్ ది టౌన్ అయిపోయింది. పాన్ ఇండియా హీరోయిన్ రష్మికకు సంబంధించిన ఓ వీడియో సోషల్ మీడియాలో తెగ వైరల్ కావడంతో ఇది కాస్త వెలుగులోకి వచ్చింది. ఇప్పుడు ఈ వీడియో చేసిన వ్యక్తిని ఢిల్లీ పోలీసులు అరెస్ట్ చేశారు.(ఇదీ చదవండి: రష్మికతో ఎంగేజ్మెంట్పై క్లారిటీ ఇచ్చేసిన విజయ్ దేవరకొండ)టెక్నాలజీ ఎప్పటికప్పుడు కొత్త పుంతలు తొక్కుతూనే ఉంది. అలానే ఈ మధ్య కాలంలో ఏఐ టెక్నాలజీ ట్రెండింగ్లోకి వచ్చింది. దీని ద్వారా మంచి ఉన్నట్లే కొందరు చెడుగానూ ఉపయోగిస్తున్నారు. అలానే రష్మిక ముఖంతో ఓ డీప్ ఫేక్ వీడియో క్రియేట్ చేసి సోషల్ మీడియాలో పోస్ట్ చేశారు. దీంతో ఇది తెగ వైరల్ అయిపోయింది. ఈ మధ్య కాలంలో కత్రినా, అమితాబ్, ప్రియాంక చోప్రా, సచిన్ కూడా డీప్ ఫేక్ బారిన పడ్డారు.బ్రిటీష్-ఇండియన్ ఇన్ఫ్లూయెన్సర్ జరా పటేల్.. లిఫ్ట్ ఎక్కుతున్న ఓ వీడియోని సోషల్ మీడియాలో పోస్ట్ చేసింది. ఈమె బదులు ఇక్కడ రష్మిక ముఖాన్ని డీప్ ఫేక్ చేసి ఓ అజ్ఞాత వ్యక్తి.. సదరు వీడియోని సోషల్ మీడియాలో పోస్ట్ చేశాడు. దీంతో పలువురు సెలబ్రిటీలు, ప్రముఖులు ఆవేదన వ్యక్తం చేశారు. నిందితుడ్ని అరెస్ట్ చేయాలని డిమాండ్ చేశారు. దర్యాప్తు చేపట్టిన పోలీసులు.. తాజాగా వీడియో చేసిన వ్యక్తిని ఆంధ్రాలో అదుపులోకి తీసుకున్నారు. అతడు తెలుగు కుర్రాడే అని తెలిసింది కానీ పేరు, ఇతర వివరాలు మాత్రం బయటకు రాలేదు.(ఇదీ చదవండి: చెంపదెబ్బ వల్ల చాలా గట్టిగా ఏడ్చేశాను: హీరోయిన్ రష్మిక) -
డీప్ ఫేక్కు గురైన సచిన్ టెండూల్కర్
సాక్షి, న్యూఢిల్లీ: క్రికెట్ దిగ్గజం సచిన్ టెండూల్కర్ డీప్ ఫేక్ బారిన పడ్డారు. ఓ ఇన్వెస్ట్మెంట్ యాప్ కోసం ఆయన ప్రచారం చేస్తున్నట్లుగా ఓ వ్యక్తి సోషల్ మీడియాలో వీడియోను పోస్ట్ చేశాడు. ‘స్వైవార్డ్ ఏవియేటర్ క్వెస్ట్’యాప్లో నా కుమార్తె గేమ్ ఆడుతుంది. ఈ గేమ్ ద్వారా రోజుకు 2100 డాలర్లు సంపాదిస్తోంది. చాలా మంది ఈ యాప్ ద్వారా గేమ్ ఆడి డబ్బు సంపాదిస్తున్నారు’అంటూ ఓ వీడియో ఇంటర్నెట్లో చక్కర్లు కొడుతోంది. దీనిపై సచిన్ టెండూల్కర్ సోమవారం స్పందించారు. డీప్ ఫేక్ల వ్యాప్తిని అరికట్టడానికి ప్రభుత్వాల నుంచి సత్వర చర్యలు చాలా కీలకం’అంటూ ‘ఎక్స్’లో ట్వీట్ చేశారు. కేంద్ర సహాయ మంత్రి రాజీవ్ చంద్రశేఖర్లతో పాటు మహారాష్ట్ర సైబర్ క్రైంలకు ఆయన ట్యాగ్ చేశారు. సచిన్ ట్వీట్పై మంత్రి రాజీవ్ చంద్రశేఖర్ స్పందించారు. ఏఐ, డీప్ ఫేక్ వంటి వాటి నుంచి ప్రజలకు రక్షణ కలి్పంచేందుకు త్వరలోనే పటిష్టమైన ఐటీ చట్టాలను అమల్లోకి తీసుకోస్తున్నట్లు పేర్కొన్నారు. -
అప్పుడు సారా.. ఇప్పుడు సచిన్ టెండుల్కర్!
సోషల్ మీడియాలో డీప్ఫేక్ వీడియోలకు అదుపులేకుండా పోతోంది. ఇప్పటికే ఎంతో మంది సెలబ్రిటీలు డీప్ఫేక్ బారిన పడగా.. టీమిండియా క్రికెట్ దిగ్గజం సచిన్ టెండుల్కర్ కూడా తాజాగా ఆ బాధితుల జాబితాలో చేరాడు. ఓ గేమింగ్ అప్లికేషన్ను సచిన్ ప్రమోట్ చేస్తున్నట్లుగా నకిలీ వీడియోను రూపొందించి నెట్టింట వదిలారు సైబర్ నేరాలకు అలవాటు పడ్డ మాయగాళ్లు. ఇది కాస్తా తన వరకు చేరడంతో.. ఎక్స్ వేదికగా స్పందించాడీ బ్యాటింగ్ లెజెండ్. ఇవన్నీ నకిలీ వీడియోలు ‘‘ఈ వీడియోలు నకిలీవి. టెక్నాలజీని ఇంతలా దుర్వినియోగం చేయడం చూస్తుంటే మనసు కలచివేస్తోంది. ఇలాంటి వీడియోలు, యాడ్స్, అప్లికేషన్లు గనుక మీ దృష్టికి వస్తే ప్రతి ఒక్కరు తప్పక రిపోర్టు చేయండి’’ ని సచిన్ టెండుల్కర్.. తన ఫాలోవర్లకు సూచించాడు. అదే విధంగా.. ‘‘ఇలాంటి ఫిర్యాదుల పట్ల సోషల్ మీడియా ప్లాట్ఫామ్లు కూడా వేగంగా స్పందించి సత్వరమే చర్యలు తీసుకోవాలి. డీప్ఫేక్స్, తప్పు సమాచారవ్యాప్తికి అడ్డుకట్ట వేయాలి’’ అని సోషల్ మీడియా ప్లాట్ఫామ్ మేనేజ్మెంట్లకు విజ్ఞప్తి చేశాడు సచిన్ టెండుల్కర్. గిల్తో ఉన్నట్లుగా ఫొటో మార్ఫ్ చేసి కాగా సచిన్ టెండుల్కర్ కుమార్తె సారా టెండుల్కర్ కూడా డీప్ఫేక్ బారిన పడిన విషయం తెలిసిందే. టీమిండియా స్టార్ ఓపెనర్ శుబ్మన్ గిల్తో ఆమె సన్నిహితంగా ఉన్నట్లు ఫొటోను సృష్టించారు. తన తమ్ముడు అర్జున్ టెండుల్కర్తో సారా దిగిన ఫొటోను మార్ఫ్ చేసి లీక్ చేశారు. అంతేకాదు ఆమె పేరిట ఫేక్ అకౌంట్లు సృష్టించి గిల్ పట్ల ప్రేమను చాటుకుంటున్నట్లుగా పోస్టులు పెట్టారు. ఈ విషయంపై స్పందించిన సారా టెండుల్కర్ సాంకేతికతను దుర్వినియోగం చేస్తూ తన వ్యక్తిగత గోప్యతకు భంగం కలిగిస్తున్న వారిపై తక్షణమే చర్యలు తీసుకోవాలని ఎక్స్ నిర్వాహకులకు విజ్ఞప్తి చేసింది. చదవండి: చరిత్రకు ఆరు పరుగుల దూరంలో కోహ్లి.. కొడితే! -
దేన్నీ వదలని ‘డీప్ఫేక్’ ముఠా..! ఫొటోలు వైరల్
ఓ ప్రముఖ నటి స్టెప్పులు వేసిన పాటకు మరో నటి స్టెప్పులు వేస్తే ఎలా ఉంటుందో మార్ఫ్ చేసి చూపిస్తే వావ్ అని అబ్బురపడతాం. ఓ 30-40 ఏళ్ల తర్వాత మనం ఎలా కనిపిస్తామో ముందే తెలుసుకోగలిగితే సూపర్ టెక్నాలజీ అని సంబరపడుతాం. అదే టెక్నాలజీ మన ముఖంతో మోసాలకు తెగబడితే.. పరువును బజారులో నిలబెడితే..! సరిగ్గా ఇప్పుడదే జరుగుతోంది. ఇటీవల ప్రముఖ హీరోయిన్ రష్మిక విషయంలో జరిగిందిదే. డీప్నెక్ బ్లాక్ డ్రెస్ వేసుకున్న వేరే అమ్మాయి వీడియోను మార్ఫింగ్ చేసి రష్మికలా రూపొందించిన విషయం తెలిసిందే. తాజాగా అమూల్ బ్రాండ్ పై కూడా డీప్ ఫేక్ మరక పడింది. అమూల్ సంస్థ జున్నును శరం పేరుతో మార్కెట్ చేస్తున్నట్లు సోషల్ మీడియాలో కొన్ని ఫొటోలు సర్క్యులేట్ అవుతున్నాయి. ఇవి ఏఐ ద్వారా సృష్టించినవని.. అటువంటి ఉత్పత్తులను మార్కెట్లోకి విడుదల చేయలేదని అమూల్ సంస్థ స్పష్టం చేసింది. శరం పేరుతో అమూల్ కొత్త రకం చీజ్ విడుదల చేసినట్లు సోషల్ మీడియా ఫ్లాట్ ఫారమ్ల్లో ఫొటోలు వైరల్ అవుతున్నాయి. దానికి కంపెనీతో ఎలాంటి సంబంధం లేదని అమూల్ సంస్థ తేల్చి చెప్పింది. వినియోగదారులు ఫేక్ న్యూస్, ఫేక్ ఫొటోలపై అప్రమత్తంగా ఉండాలని చెప్పింది. ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ ఉపయోగించి ఈ చిత్రాన్ని తయారు చేసినట్లు తెలిసింది. తమ బ్రాండ్ పేరు చెడగొట్టేందుకే ఇలాంటి డీప్ ఫేక్ చిత్రాలను వైరల్ చేస్తున్నారని సంస్థ పేర్కొంది. ఈ పోస్టుల ద్వారా తప్పుడు సమాచారం సృష్టించి వినియోగదారులను అనవసరమైన గందరగోళాన్ని సృష్టిస్తున్నారని తెలిపింది. వైరల్ అవుతున్న ఫొటోలో అమూల్ లోగోతో లైట్ ఎల్లో కలర్ ప్యాకెట్, పెద్ద ఫాంట్లో శరం అనే పదాన్ని చిత్రీకరించారు. ఇదీ చదవండి: టోల్ప్లాజా తొలగింపుపై మంత్రి కీలక వ్యాఖ్యలు అముల్ బ్రాండ్పై ఇలాంటి వైరల్ న్యూస్, ఫొటోలు వైరల్ కావడం కొత్తేమి కాదు. గతంలో అమూల్ లస్సీ ప్యాకెట్లో ఫంగస్ ఉందని సోషల్ మీడియాలో వీడియోలు వైరల్ అయ్యాయి. ఆ వీడియోలు ఫేక్ అని కేవలం వినియోగదారులను భయాందోళనకు గురి చేస్తున్నారని సంస్థ కొట్టిపారేసింది. -
‘డీప్’గా పసిగట్టి..‘ఫేక్’ పనిపట్టండి
సాక్షి, హైదరాబాద్: డీప్ఫేక్పై కేంద్రం కొరడా ఝుళిపించింది. ఆన్లైన్లో ఫేక్ వీడియోలు, మార్ఫింగ్ ఫొటోలతో మోసాలకు పాల్పడటం, వ్యక్తిగత ప్రతిష్టను దిగజారుస్తుండటంతో ఈ అంశాన్ని సీరియస్గా తీసుకుంది. ఈ నేపథ్యంలో డీప్ఫేక్ కట్టడికి కఠిన నిబంధనలు విధిస్తూ ఇటీవల నిర్ణయం తీసుకుంది. అయితే, డీప్ఫేక్తో మోసాలకు గురికాకుండా తప్పుడు సమాచారాన్ని సోషల్ మీడియాలో సర్క్యులేట్ చేయకుండా ఉండేందుకు కొన్ని సూత్రాలు పాటించాలని కేంద్ర హోంశాఖ కీలక సూచనలు చేసింది. వీటిని పరిశీలించకుండా వీడియోలు, ఫొటోలను సోషల్ మీడియాలో ఫార్వర్డ్ చేయొద్దని అధికారులు సూచిస్తున్నారు. వాటిల్లో కొన్ని సూచనలు కింది విధంగా ఉన్నాయి. ► ఫొటోలు, వీడియోలలో ఉన్న లైటింగ్, నీడలను నిశితంగా పరిశీలించాలి. అందులో ఏవైనా తేడాలు గమనిస్తే అది ఫేక్ అని ప్రాథమిక అంచనాకు రావొచ్చు. ► అసహజ ముఖకవళికలు ఉన్నట్టు గమనిస్తే దానిని డీప్ఫేక్తో తయారు చేసిన వీడియోగా భావించవచ్చు. ► ఆడియోలలో అసమానతలు, ఆడియో అస్పష్టంగా ఉన్నాయా అన్నది పరిశీలించాలి. ► ఫొటోలు, వీడియోల బ్యాక్గ్రౌండ్లో అసమానతలు, ఏవైనా వస్తువులు సాధారణానికి భిన్నంగా ఉన్నట్టు గమనించినా అది డీప్ఫేక్ అయి ఉండొచ్చు. ► ఫొటోల్లో, వీడియోల్లో వ్యక్తులు నిలబడిన, నడుస్తున్న ప్లాట్ఫారమ్లు అసాధారణంగా ఉన్నాయా? కదలికలు నిశితంగా పరిశీలిస్తే ఏవైనా అనుమానాలు ఉన్నాయా అన్నది పరిశీలించాలి. ► డీప్ఫేక్ డిటెక్షన్ టూల్స్ వాడి కూడా అవి నిజమైనవా..లేదా? గుర్తించవచ్చు. -
అలాంటివి ఎవరూ నమ్మకండి - హెచ్చరించిన ఇన్ఫోసిస్ నారాయణ మూర్తి
డీప్ ఫేక్ అనేది కేవలం సినీ సెలబ్రిటీలను మాత్రమే కాకుండా పారిశ్రామిక వేత్తలను కూడా తెగ ఇబ్బంది పెట్టేస్తోంది. ఇప్పటికే రతన్ టాటా పేరుమీద వచ్చిన డీప్ ఫేక్ మరువక ముందే.. మరో పారిశ్రామిక దిగ్గజం మీద డీప్ఫేక్ వీడియోలు వైరల్ అయినట్లు తెలిసింది. దీనికి సంబంధించిన మరిన్ని వివరాలు ఈ కథనంలో తెలుసుకుందాం. ప్రముఖ ఐటీ దిగ్గజం ఇన్ఫోసిస్ కో ఫౌండర్ నారాయణ మూర్తి (Narayana Murthy) ఇటీవల డీప్ ఫేక్ వీడియో బారిన పడినట్లు తెలిసింది. ట్రేడింగ్ యాప్లకు నారాయణ మూర్తి ప్రచారం చేస్తున్నట్లు డీప్ఫేక్ వీడియోలు వైరల్ అవుతున్నాయని, వాటిని ఎవరూ నమ్మవద్దని ఆయనే స్వయంగా వెల్లడించారు. దీనికి సంబంధించిన ట్వీట్లు కూడా తన ఎక్స్ (ట్విటర్) ఖాతాలో పోస్ట్ చేశారు. ట్రేడింగ్ యాప్లలో నేను పెట్టుబడులు పెట్టానని, వాటిని ప్రచారం చేస్తున్నట్లు కొన్ని వార్తలు సోషల్ మీడియాలోప్రచారమవుతున్నాయి. వాటిని ఎవరూ నమ్మవద్దని నారాయణ మూర్తి పేర్కొన్నారు. కొన్ని వెబ్సైట్లు డీప్ ఫేక్ వీడియోలు క్రియేట్ చేసి మోసం చేస్తున్నాయని, అలాంటివి మీకు ఎదురైతే సంబంధిత అధికారులకు రిపోర్ట్ చేయాలనీ పేర్కొన్నారు. ఇటీవల ఇన్స్టాగ్రామ్లో వైరల్ అయిన ఒక పోస్ట్లో, సోన అగర్వాల్ పేరుతో టాటా మేనేజర్గా చెప్పుకుంటూ.. దేశ ప్రజలకు ఇదే నా సిఫార్సు. 100 శాతం గ్యారెంటీతో పెట్టుబడులు పెట్టడానికి ఇదే మంచి అవకాశం, దీని కోసం ఈ ఛానెల్లోకి వెళ్లండి అంటూ.. రతన్ టాటా చెప్పినట్లు ఓ పోస్ట్ షేర్ చేశారు. ఈ వీడియోపై రతన్ టాటా స్పందిస్తూ.. అదంతా ఫేక్ అని సోషల్ మీడియాలో వెల్లడించారు. ఇలాంటి వాటి భారిన పడకుండా ఉండాలంటే ప్రజలు కూడా తప్పకుండా జాగ్రత్తగా ఉండాల్సిన అవసరం ఎంతైనా ఉందని ఆయనే వెల్లడించారు. PUBLIC WARNING ISSUED IN RESPECT OF FAKE VIDEOS AND POSTS ON SOCIAL MEDIA AND INTERNET ABOUT ME — Narayana Murthy (@Infosys_nmurthy) December 14, 2023 using deepfake pictures and videos. I categorically deny any endorsement, relation or association with these applications or websites. I caution the public to not fall prey to the content of these malicious sites and to the products or — Narayana Murthy (@Infosys_nmurthy) December 14, 2023 -
బ్యాంకులకూ ముప్పు తప్పదా? హెచ్చరిస్తున్న జెరోధా సీఈవో నితిన్ కామత్
ఆర్టిఫీషియల్ ఇంటెలిజెన్స్తో బ్యాంకులు, ఆర్థిక సంస్థలకు ముప్పు పొంచి ఉందా.. విస్తృతమవుతున్న డీప్ ఫేక్లు బ్యాంకులనూ బురిడీ కొట్టిస్తాయా? అవుననే హెచ్చరిస్తున్నారు ప్రముఖ స్టాక్ బ్రోకరేజీ సంస్థ జెరోధా సహ వ్యవస్థాపకుడు, సీఈవో నితిన్ కామత్. ఆర్టిఫిషియల్ ఇంటెలిజెన్స్తో బ్యాంకులకు ఎదురుకానున్న సమస్యలను తెలియజేస్తూ ఆయనో వీడియో పోస్ట్ చేశారు. ప్రస్తుతం ఆర్టిఫీషియల్ ఇంటెలిజెన్స్ వాడకం విస్తృతమైంది. ఈ క్రమంలోనే బ్యాంకులు, ఇతర ఆర్థిక సంస్థలు కూడా ఈ టెక్నాలజీని తమ కార్యకలాపాల కోసం విస్తృతంగా ఉపయోగిస్తున్నాయి. అయితే ఏఐ టెక్నాలజీని కొంతమంది దుర్వినియోగం చేస్తున్నారు. సెలబ్రిటీల డీప్ ఫేక్లు సృష్టిస్తున్నారు. ఇది ఇక్కడికే పరిమితం కాదని, పెరుగుతున్న ముప్పును హైలైట్ చేస్తూ నితిన్ కామత్ ‘ఎక్స్’లో ఒక వీడియోను పోస్ట్ చేశారు. డీప్ఫేక్ కస్టమర్ గుర్తింపులను ధ్రువీకరించడంలో బ్యాంకులు, ఇతర ఆర్థిక సంస్థలు ఎదుర్కొనే ఇబ్బందుల గురించి తెలియజేశారు. నిజమా.. ఏఐ కల్పితమా? ప్రస్తుతం కస్టమర్లు నేరుగా బ్యాంకులకు, కార్యాలయాలకు వెళ్లడం తగ్గిపోయింది. అన్నీ ఆన్లైన్లోనే జరిగిపోతున్నాయి. ప్రస్తుతం బ్యాంకులు డిజిలాకర్ లేదా ఆధార్ని ఉపయోగించి కస్టమర్ల ఐడీ, అడ్రస్ ప్రూఫ్ డేటాను బ్యాంకులు పొందుతున్నాయి. ఇక ఖాతాను తెరిచే వ్యక్తితో ఈ ఐడీని వెబ్క్యామ్ ద్వారా నిర్ధారించుకుంటున్నాయి. అయితే డీప్ఫేక్లు పెరుగుతున్న కొద్దీ అవతలి వైపు ఉన్న వ్యక్తి నిజమా లేదా ఏఐ కల్పితమా అన్నది ధ్రువీకరించడం కష్టమవుతుందని తాను భావిస్తున్నట్లు నితిన్ కామత్ పేర్కొన్నారు. ఆన్బోర్డింగ్ సమయంలో మరింత కఠినమైన నియంత్రణ అవసరాలు ఉన్న బ్యాంకులకు ఈ సమస్య మరింత పెద్దదిగా మారుతుందన్నారు. ఇది కూడా చదవండి: మస్క్ వారి మరమనిషి మరింత కొత్తగా.. టెస్లా రోబో 2.0! ఈ ముప్పును అధిగమించడానికి రానున్న రోజుల్లో ఎలాంటి నిబంధనలు రూపొందిస్తారు.. ఖాతాలు తెరవాలంటే నేరుగా బ్యాంకులకే వెళ్లాల్సిన రోజులు మళ్లీ వస్తాయా అన్నది చూడాలి. వీడియో చివరిలో నితిన్ కామత్ ‘ఇక్కడ ఉన్నది నేను కాదు.. ఇది డీప్ ఫేక్’ అంటూ చమత్కరించారు. The rise of AI technology and deepfakes pose a large risk to the financial services industry. The tipping point for Indian financial services businesses was when onboarding became completely digital, thanks to Aadhaar, etc. For businesses onboarding a new customer, an important… pic.twitter.com/DI9Z1Q3jxY — Nithin Kamath (@Nithin0dha) December 13, 2023 -
డీప్ ఫేక్.. మరో స్టార్ హీరోయిన్ వీడియో వైరల్!
యానిమల్ హీరోయిన్ రష్మిక మందన్నా డీప్ ఫేక్ వీడియో దేశవ్యాప్తంగా చర్చనీయాంశమైంది. ఆ తర్వాత కత్రినా కైఫ్,అలియా భట్, కాజోల్ ఫోటోలు సైతం నెట్టింట వైరలయ్యాయి. దీంతో ఇలాంటి డీప్ ఫేక్ వీడియోలు, ఫోటోలు వైరల్ కావడంతో కేంద్ర ప్రభుత్వం సోషల్ మీడియా ఫ్లాట్ఫామ్స్కు మార్గదర్శకాలు విడుదల చేసింది. ఇలాంటి వారిపై కఠిన చర్యలు తీసుకునేందుకు చర్యలు చేపట్టింది. అయినప్పటికీ డీప్ ఫేక్ వీడియోలు ఎక్కడో ఒక చోట వైరలవుతూనే ఉన్నాయి. తాజాగా మరో స్టార్ హీరోయిన్ డీప్ ఫేక్ బారిన పడింది. స్టార్ హీరోయిన్ ప్రియాంక చోప్రాకు సంబంధించిన డీప్ ఫేక్ వీడియో ప్రస్తుతం సోషల్ మీడియాలో వైరల్గా మారింది. ప్రియాంక గతంలో మాట్లాడిన ఓ వీడియోలో ఆమె ముఖం మార్చకుండా.. అందులోని వాయిస్ను మార్చి వైరల్ చేశారు. ఆమె ఓ నకిలీ బ్రాండ్ను ప్రమోట్ చేస్తున్నట్లు లిప్ సింక్ అయ్యేలా క్రియేట్ చేశారు. ఆ వీడియోలో ఆమె తన వార్షిక ఆదాయాన్ని వెల్లడిస్తున్నట్లు రూపొందించారు. ఓ బ్రాండ్ ప్రకటనతో 2023లో తన వార్షిక ఆదాయం భారీగా పెరిగిందని.. అందరూ ఆ బ్రాండ్నే ఉపయోగించాలని ప్రియాంక చెప్పినట్లు క్రియేట్ చేశారు. ప్రస్తుతం ఈ వీడియో నెట్టింట వైరల్గా మారింది. దీంతో ఇలాంటి వారిపై కఠిన చర్యలు తీసుకోవాలని డిమాండ్ చేస్తున్నారు. -
ఇది ఎప్పటినుండో జరుగుతుంది.. అందరికి జరుగుతుంది..!
-
‘రూ.1.8 లక్షలు చెల్లిస్తే రూ.5 కోట్లు’.. సీఈఓ ఏమన్నారంటే..
డీప్ఫేక్ టెక్నాలజీ పుణ్యమా అని మెసేజ్, ఇమేజ్, వీడియో చూసినా అది నమ్మాలో.. వద్దో తెలియని పరిస్థితి దాపరించింది. ఇటీవల సెలబ్రిటీల ఫొటోలను డీప్ఫేక్ ద్వారా అనుమానం రాకుండా మార్ఫింగ్ చేసిన సైబర్ అటాకర్లు.. తాజాగా స్టాక్ మార్కెట్ ఇన్వెస్టర్లపై విజృంభిస్తున్నారు. అనేక మంది ఏఐ సాంకేతికతను దుర్వినియోగం చేస్తూ ఇన్వెస్టర్లను బురిడీ కొట్టించే పనిలో పడ్డారు. డీప్ఫేక్లను సాంకేతికత పెద్ద సమస్యగా మారింది. సైబర్ మోసగాళ్లు వీటిని వినియోగించి ఫేక్ ఇమేజెస్, వాయిస్, వీడియోలను తయారు చేస్తున్నారు. ఇవి కొందరికి ఆర్థిక పరమైన, వ్యక్తిగత, వృత్తిపరమైన నష్టాలను కలిగిస్తున్న ఘటనలు పెరుగుతున్నాయి. వీటిని కేంద్రం సైతం చాలా సీరియస్గా తీసుకుంది. మంత్రులు సైతం ఈ అంశంపై తీవ్రంగా స్పందించారు. ఈ అంశాలపై అవగాహన లేనివారు సైబర్ మోసగాళ్ల చర్యలకు బలైపోతున్నారు. డీప్ఫేక్ అంశంపై తాజాగా ప్రముఖ బ్రోకరేజ్ సంస్థ జెరోధా సీఈఓ నితిన్కామత్ స్పందించారు. ఒక కస్టమర్ రూ.1.80 లక్షల స్కామ్ను తృటిలో తప్పించుకున్న సంఘటనను కామత్ తన ఎక్స్ ఖాతాలో వివరించారు. డీప్ఫేక్లను సృష్టించే యాప్స్ అందుబాటులోకి రావటంతో ఇలాంటి మోసపూరిత దాడులు పెరుగుతున్నాయని కంపెనీ హెచ్చరించారు. జెరోధా కస్టమర్కు రూ.1.8లక్షలు చెల్లిస్తే అతడి ఖాతాలో రూ.5 కోట్లు జమ చేస్తామని జెరోధా నుంచి ఒక మెసేజ్ వచ్చినట్లు కామత్ చెప్పారు. పైగా మెసేజ్ పంపించిన వారు తమ అకౌంట్లో రూ.10 కోట్లు ఉన్నట్లు కూడా ఫేక్ ఇమేజ్లు చూపించినట్లు తెలిపారు. ఈ తతంగాన్ని వెంటనే సదరు కస్టమర్ జెరోధా కస్టమర్ కేర్ విభాగంతో ధ్రువీకరించుకున్నారు. దాంతో తాను మోసపోకుండా ఉన్నాడని చెప్పారు. జెరోధా ఎవరికి ఇలాంటి మెసేజ్లు పంపలేదని, భవిష్యత్తులోనూ పంపదని కామత్ స్పష్టం చేశారు. డీప్ఫేక్ ఇమేజ్లు, వాయిస్లు, ఫొటోలతో స్కామర్లు ఇలాంటి మోసాలకు పాల్పడుతున్నట్లు వివరించారు. అలాంటి మెసేజ్లు నమ్మకూడదన్నారు. అందుకు సంబంధించి కామత్ తన ఎక్స్ ఖాతాలో ఒక వీడియో అప్లోడ్ చేశారు. ఇదీ చదవండి: సాయంత్రం 5 దాటితే కష్టాలే.. ఆ నగరాల్లో దారుణమైన ట్రాఫిక్! స్కామర్లు స్టాక్ ట్రేడింగ్కు సంబంధించిన లాభనష్టాలు, లెడ్జర్లు, ట్రేడింగ్ ప్లాట్ఫారమ్లు బ్యాంక్ ఖాతాలకు సంబంధించిన రిపోర్టులను క్లోన్ యాప్స్ ద్వారా నకిలీ తయారు చేస్తున్నారు. వీటిని వినియోగించి వీడియోలు చేసి వైరల్ చేస్తున్నారు. వీరి మాటలు నమ్మి పెట్టుబడి పెడితే మంచి లాభాలు వస్తాయని నమ్ముతున్న కొందరు నష్టాల పాలవుతున్నారు. ఇన్వెస్టర్లు ఇలాంటి మోసాల పట్ల అప్రమత్తంగా ఉండాలని నిపుణులు సూచిస్తున్నారు. Scams involving fake screenshots, P&L reports, ID cards, bank statements, etc., have become a mega nuisance. We just spotted a new one. A scammer created a fake Zerodha employee ID card and met our customer whom he had spotted online and said he had won an award from Zerodha. He… pic.twitter.com/RA3DQoPuhp — Nithin Kamath (@Nithin0dha) November 22, 2023 -
డీప్ఫేక్ల అడ్డుకట్టకు ప్రత్యేక అధికారులు: కేంద్రం
న్యూఢిల్లీ: డీప్ఫేక్ల పరిశీలనలకు ఫిర్యాదులకు ప్రత్యేక అధికారిని నియమించాలని కేంద్ర ప్రభుత్వం నిర్ణయించింది. సోషల్మీడియా సంస్థలతో సమావేశం తరువాత కేంద్రం ఈ నిర్ధారణకు వచ్చింది. రెండు రోజుల కీలక సమావేశాల సందర్భంగా కేంద్ర ఎలక్ట్రానిక్స్ మరియు ఇన్ఫర్మేషన్ టెక్నాలజీ మంత్రి శుక్రవారం ఈ విషయాన్ని ప్రకటించారు. భారతీయ చట్టాలు, నిబంధనలకు అనుగుణంగా విధి విధానాల రూపకల్పనకు సోషల్ మీడియా ప్లాట్ఫారమ్లకు ఏడు రోజుల సమయం ఇస్తున్నట్లు కేంద్రమంత్రి ప్రకటించారు. డీప్ఫేక్ కంటెంట్పై చర్య తీసుకునేలా అధికారిని నియమిస్తామని సోషల్ మీడియా కంపెనీలను కలిసిన తర్వాత రాజీవ్ చంద్రశేఖర్ ఈ అంశాన్ని చెప్పారు. ఏఐ ద్వారా సృష్టిస్తున్న డీప్ఫేక్ వీడియోలు చాలా ప్రమాదకరమని, నకిలీ సమాచారంతో ప్రజలను ఇవి తప్పుదారి పట్టిస్తున్నాయని ఆయన ఆందోళన వ్యక్తం చేశారు. తప్పుడు సమాచారాన్ని నిరోధించేందుకు ఆన్లైన్ ప్లాట్ఫారమ్లు కఠినంగా వ్యవహించాలని లేదంటే చర్యలు తప్పవని హెచ్చరించారు. ‘‘ఐటి రూల్స్ 2021 ప్రకారం నిర్దేశించిన వ్యవధిలోపు , లేదా రిపోర్టింగ్ చేసిన 36 గంటలలోపు ఆ కంటెంట్ను తొలగించాలి. లేదంటే చర్యలు తప్పవు’’ అని స్పష్టం చేశారు. డీప్ఫేక్లను సృష్టించినా, వ్యాప్తి చేసినట్టు రుజువైనా లక్ష రూపాయల దాకా జరిమానా, మూడేళ్ల జైలు శిక్ష తప్పదని ఇప్పటికే ప్రకటించిన సంగతి తెలిసిందే. కాగా దేశవ్యాప్తంగా చర్చకు దారి తీసిన డీప్ ఫేక్ వీడియోల వ్యవహారాన్ని కేంద్రం సీరియస్గా స్పందిస్తోంది. డీప్ఫేక్ను సృష్టించి వ్యాప్తి చేసే వారితోపాటు, సోషల్ మీడియా సంస్థలపై కూడా కఠిన చర్యలు తీసుకుంటామని హెచ్చరించిన కేంద్రం ఇన్ఫర్మేషన్ టెక్నాలజీ డొమైన్లో పనిచేస్తున్న కంపెనీల సాయంతో డీప్ఫేక్ వీడియోల కట్టడికి వివరణాత్మక మార్గదర్శకాలను తీసుకొచ్చేందుకు కీలక సమావేశాన్ని నిర్వహించింది. ఈ సందర్భగా ప్రజాస్వామ్యానికి కొత్త ముప్పుగా పుట్టుకొస్తున్న డీప్ఫేక్లను వ్యాప్తి చేసే వాళ్లపై కఠిన చర్యలు తీసుకునేలా కొత్త నిబంధనలు తీసుకువస్తామని, అలాంటి వారిపై కఠినంగా వ్యవహరిస్తామని అశ్విని వైష్ణవ్ గురువారం ప్రకటించారు. -
డీప్ఫేక్లపై కేంద్రం హెచ్చరిక : త్వరలో కఠిన నిబంధనలు
న్యూఢిల్లీ: ఇటీవల కొన్ని రోజులుగా దేశవ్యాప్తంగా చర్చకు దారి తీసిన డీప్ ఫేక్ వీడియోలపై కేంద్రం సీరియస్ చర్యలకు సిద్ధమవుతోంది. డీప్ఫేక్ను సృష్టించి వ్యాప్తి చేసే వారితోపాటు, సోషల్ మీడియా సంస్థలపై కూడా కఠిన చర్యలు తీసుకుంటామని కేంద్రం తాజాగా హెచ్చరించింది. డీప్ఫేక్ల సమస్యపై చర్చించేందుకు సోషల్ మీడియా ప్లాట్ఫారమ్లతో నిర్వహించిన సమావేశానికి కేంద్ర కమ్యూనికేషన్లు, ఎలక్ట్రానిక్స్ & ఐటీ శాఖ మంత్రి అశ్విని వైష్ణవ్ అధ్యక్షత వహించారు. డీప్ఫేక్ సమాజంలో కొత్త ముప్పుగా మారిందని వైష్ణవ్ అన్నారు. అనంతరం అశ్విన్ వైష్ణవ్ మీడియాతో మాట్లాడుతూ, ప్రజాస్వామ్యానికి కొత్త ముప్పుగా డీప్ఫేక్లు ఉద్భవించాయన్నారు. వీటిన సృష్టించి, వ్యాప్తి చేసే వాళ్లపై కఠిన చర్యలు తీసుకునేలా కొత్త నిబంధనలు తీసుకువస్తామని చెప్పారు. డీప్ఫేక్ను తీవ్రంగా పరిగణిస్తున్నామని వీటి నియంత్రణలో ప్రభుత్వం కఠినంగా వ్యవహరిస్తుందని వెల్లడించారు. అంతేకాదు సంఘవిద్రోహ శక్తులు వీటిని ఉపయోగించుకునే అవకాశం ఉందని కేంద్ర మంత్రి తెలిపారు. రానున్న పదిరోజుల్లోనే నిబంధనల ముసాయిదాను పూర్తి చేసేందుకు కృషి చేస్తామని తెలిపారు. ప్రభుత్వం, ఇన్ఫర్మేషన్ టెక్నాలజీ డొమైన్లో పనిచేస్తున్న కంపెనీల సాయంతో డీప్ఫేక్ డీడియోల కట్టడికి వివరణాత్మక మార్గదర్శకాలను తీసుకురానున్నట్టు తెలిపారు. (ఐఆర్సీటీసీ డౌన్: మండిపడుతున్న వినియోగదారులు ) కాగా ప్రధానమంత్రి నరేంద్ర మోదీ గార్బా నృత్యం చేస్తున్నట్టు వచ్చిన నకిలీ వీడియోతోపాటు, సినీ హీరోయిన్లు రష్మికా మందాన, కాజోల్ పేరుతో కొన్ని అభ్యంతర వీడియోలు నెట్టింట హల్ చేసిన నేపథ్యంలో ఐటీ శాఖ కఠిన చర్యలకు ఉపక్రమిస్తోంది. -
నా డీప్ఫేక్ ఫొటోలు షేర్ చేస్తున్నారు: సారా టెండుల్కర్ ఆవేదన
తన పేరిట జరుగుతున్న దుష్ప్రచారంపై క్రికెట్ దిగ్గజం సచిన్ టెండుల్కర్ కుమార్తె సారా స్పందించింది. సోషల్ మీడియా ప్లాట్ఫామ్ ‘ఎక్స్’లో తనకు ఎటువంటి ఖాతా లేదని స్పష్టం చేసింది. కొంతమంది కావాలనే డీప్ఫేక్ ఫొటోలతో తన పరువుకు భంగం కలిగించేలా వ్యవహరిస్తున్నారని ఆవేదన వ్యక్తం చేసింది. ఇలాంటి ఫేక్ అకౌంట్లను వెంటనే తొలగించాలని ఎక్స్ అధినేత ఎలన్ మస్క్కు సారా విజ్ఞప్తి చేసింది. కాగా సచిన్ తనయగానే కాకుండా తనకంటూ ప్రత్యేక గుర్తింపు ఉండాలన్న తపనతో సారా టెండుల్కర్ మోడలింగ్ రంగంలోకి అడుగుపెట్టింది. ఈ క్రమంలో ఇన్స్ట్రాగ్రామ్లో యాక్టివ్గా ఉంటూ ఎప్పటికప్పుడు తన ఫొటోలు అభిమానులతో పంచుకోవడం ఆమెకు అలవాటు. అయితే, ఎక్స్(ట్విటర్)లోనూ సారా టెండ్కులర్ పేరిట బ్లూ టిక్తో ఓ అకౌంట్ ఉంది. పేరడి అకౌంట్గా పేర్కొన్న ఈ ఖాతాలో సారా ఫొటోలు షేర్ చేయడమే గాకుండా.. టీమిండియా క్రికెటర్ శుబ్మన్ గిల్ పట్ల ఆమెకు ప్రత్యేక శ్రద్ధగా ఉన్నట్లుగా కొన్నిరోజులుగా పోస్టులు పెడుతున్నారు. వన్డే వరల్డ్కప్-2023లో టీమిండియాను సపోర్టు చేస్తూ సారా స్టేడియాలకు వెళ్లిన విషయం తెలిసిందే. గిల్తో ఆమె ప్రేమలో ఉందన్న వదంతులకు ఇలాంటి ఘటనలు మరింత బలాన్నిచ్చాయి. ఈ నేపథ్యంలో సారా పేరిట ఉన్న ఎక్స్ ఖాతాలో గిల్కు ఆమె విషెస్ చెబుతున్నట్లు.. అతడు అవుటైన సందర్భాల్లో బాధ పడిటన్లు పోస్టులు పెట్టారు. ఇక మరో ఖాతాలో తన తమ్ముడు అర్జున్తో సారా ఉన్న ఫొటోల్లో గిల్ ముఖంతో మార్ఫింగ్ చేసి వైరల్ చేశారు. ఇలాంటి పరిణామాల నేపథ్యంలో కలత చెందిన సారా టెండుల్కర్ ఇన్స్టా వేదికగా తీవ్ర ఆవేదన వ్యక్తం చేసింది. ‘‘మన సంతోషాలు, బాధలు.. రోజూవారీ కార్యకలాపాలు అభిమానులతో పంచుకోవడానికి దొరికిన ఒక అద్భుత మాధ్యమం సోషల్ మీడియా. కానీ కొంతమంది సాంకేతికను దుర్వినియోగం చేస్తూ అభూత కల్పనలతో ఇంటర్నెట్ను నింపేస్తున్నారు. నాకు సంబంధించిన కొన్ని డీప్ఫేక్ ఫొటోలు నా దృష్టికి వచ్చాయి. అవన్నీ వాస్తవదూరాలు. అంతేకాదు ఎక్స్లో నా పేరిట ఖాతా తెరిచి ప్రజలను తికమకకు గురిచేస్తున్నారు. నిజానికి నాకు ఎక్స్ ఖాతా లేనేలేదు. ఇలాంటి అకౌంట్లను పరిశీలించి వాటిని నిషేధిస్తారని భావిస్తున్నా. నిజాన్ని దాచి అబద్ధాలు ప్రచారం చేయడం ద్వారా వినోదం అందించాల్సిన అవసరం లేదు. నమ్మకం, వాస్తవాల ఆధారంగా నడిచే కమ్యూనికేషన్ను ఎంకరేజ్ చేద్దాం’’ అని సారా పేర్కొంది. కాగా ఇటీవలి కాలంలో డీప్ఫేక్ ఫొటోలు, వీడియోలు వైరల్ అవుతున్న విషయం తెలిసిందే. ప్రముఖ హీరోయిన్ రష్మిక మందన్న డీప్ఫేక్ వీడియో దుమారం రేపగా.. కత్రినా కైఫ్, కాజోల్ వంటి నటీమణులకు సంబంధించిన వీడియోలు సైతం వైరల్ అయ్యాయి. ఈ నేపథ్యంలో నిందితులపై కఠిన చర్యలకు ఉపక్రమిస్తాంటూ కేంద్రం హామీ ఇచ్చింది. -
నేరగాళ్ల చేతుల్లోకి కృత్రిమ మేధ
న్యూఢిల్లీ: నేరగాళ్లు కృత్రిమ మేధను ఉపయోగించుకుని డీప్ఫేక్ వీడియోలు, చిత్రాలను సృష్టిస్తుండటంపై రాష్ట్రపతి ద్రౌపదీ ముర్ము ఆందోళన వ్యక్తం చేశారు. ఇలాంటి వాటిని దీటుగా ఎదుర్కొనేందుకు సాంకేతికపరమైన నైపుణ్యాన్ని పోలీసు అధికారులు ఎప్పటికప్పుడు అందిపుచ్చుకోవాలన్నారు. శనివారం రాష్ట్రపతి భవన్లో తనను కలుసుకున్న ఐపీఎస్–2022 బ్యాచ్ అధికారులనుద్దేశించి ఆమె మాట్లాడారు. సైబర్ నేరాలు, నేరాలు, డ్రగ్స్ మాఫియా, వామపక్ష తీవ్రవాదం, ఉగ్రవాదం వంటి పలు సవాళ్లను పోలీసు బలగాలు ఎదుర్కొంటున్నాయని చెప్పారు. ‘నూతన సాంకేతిక, సోషల్ మీడియా ప్రభావంతో పరిస్థితుల్లో వేగంగా మార్పులు సంభవిస్తున్నాయి. నేరగాళ్లు కృత్రిమ మేధను ఉపయోగించుకున్నారు. దీంతో, డీప్–ఫేక్ వంటి సమస్యలు నేడు మన ముందున్నాయి’అని ముర్ము చెప్పారు. నేరగాళ్లపై పైచేయి సాధించాలంటే పోలీసు అధికారులు సరికొత్త సాంకేతిక పరిజ్ఞానాన్ని అందిపుచ్చుకోవాలని సూచించారు. -
కృత్రిమ మేధ దుర్వినియోగంతో పెను సంక్షోభం
న్యూఢిల్లీ: కృత్రిమ మేధ(ఏఐ) దుర్వినియోగం అవుతుండడంపై ప్రధానమంత్రి నరేంద్ర మోదీ ఆందోళన వ్యక్తం చేశారు. డీప్ఫేక్ వీడియోలు, చిత్రాలు సృష్టించడానికి కృత్రిమ మేధను వాడుకుంటున్నారని, ఇదొక పెను సంక్షోభానికి దారి తీస్తోందని హెచ్చరించారు. ఏఐ దుర్వినియోగం, దాని ప్రభావంపై ప్రజల్లో చైతన్యం పెంచాలని చేయాలని ప్రసార మాధ్యమాలకు విజ్ఞప్తి చేశారు. ఢిల్లీలోని బీజేపీ ప్రధాన కార్యాలయంలో శుక్రవారం ‘దివాళీ మిలన్’ సందర్భంగా ప్రధాని మోదీ మీడియాతో మాట్లాడారు. గార్బా వేడుకలో తాను పాట పాడుతున్నట్లు ఇటీవల ఓ ఫేక్ వీడియోను గుర్తు తెలియని వ్యక్తులు సృష్టించారని, ఓ అభిమాని తనకు ఆ వీడియోను పంపించాడని తెలిపారు. నిజానికి పాఠశాల రోజుల నుంచి తాను ఏనాడూ పాట పాడలేదని నవ్వుతూ చెప్పారు. వైవిధ్యంతో కూడిన మన సమాజంలో డీప్ఫేక్లు పెద్ద ప్రమాదానికి కారణమవుతాయని అన్నారు. ఏఐ పరిజ్ఞానంతో డీప్ఫేక్ల సృష్టి వల్ల కొత్త సంక్షోభం తెరపైకి వస్తోందని వెల్లడించారు. సోషల్ మీడియాలో ప్రత్యక్షమవుతున్న వీడియోలు నిజమో కాదో తేల్చుకునే వ్యవస్థ ప్రజలందరికీ అందుబాటులో లేదని పేర్కొన్నారు. ‘వోకల్ ఫర్ లోకల్’కు ప్రజల మద్దతు వివాదాస్పద దృశ్యాలు, సంభాషణలు ఉన్న చలనచిత్రాలు గతంలో వస్తే కొద్దిరోజుల్లోనే ఆ రగడ చల్లారేదని గుర్తుచేశారు. ఇప్పుడు మాత్రం అలాంటి చిత్రాలను సమాజంలోని కొన్ని వర్గాలు తీవ్రంగా వ్యతిరేకిస్తున్నాయని, పెద్ద వివాదంగా మారుస్తున్నాయని, భారీ బడ్జెట్తో నిర్మించిన ఆ చిత్రాలు పరాజయం పాలవుతున్నాయని చెప్పారు. సిగరెట్ పెట్టెలపై ఆరోగ్యపరమైన హెచ్చరికలు ఉన్నట్లుగానే డీప్ఫేక్ వీడియోలపైనా అలాంటి హెచ్చరికలు ఉంటే బాగుంటుందని మోదీ అభిప్రాయపడ్డారు. 2047 నాటికి ‘వికసిత్ భారత్’ తన లక్ష్యమని పునరుద్ఘాటించారు. ఇది కేవలం నోటిమాట కాదని, క్షేత్రస్థాయిలో జరగబోయే వాస్తవమని స్పష్టం చేశారు. ‘వోకల్ ఫర్ లోకల్’ ప్రచారానికి జనం సంపూర్ణ మద్దతు ఇస్తున్నారని వ్యక్తం చేశారు. దీపావళి పండుగ సమయంలో దేశంలో రూ.4.5 లక్షల కోట్ల విలువైన వ్యాపారం జరిగిందని తెలిపారు. కోవిడ్–19 ముప్పు తొలగిపోవడంతో ప్రజలు ఆనందోత్సాహాలతో పండుగ జరుపుకున్నారని చెప్పారు. సాధారణ ప్రజల మరణాలను ఖండిస్తున్నాం ఇజ్రాయెల్–హమాస్ యుద్ధంపై మోదీ ఇజ్రాయెల్–హమాస్ యుద్ధంలో సాధారణ ప్రజలు మరణించడాన్ని భారత్ తీవ్రంగా ఖండిస్తోందని ప్రధానమంత్రి నరేంద్ర మోదీ చెప్పారు. పశి్చమాసియాలో చోటుచేసుకుంటున్న పరిణా మాలు ప్రపంచానికి కొత్త సవాళ్లను విసురుతున్నాయని తెలిపారు. ఇలాంటి తరుణంలో ప్రపంచ మానవాళి క్షేమం కోసం గ్లోబల్ సౌత్ దేశాలు కలిసికట్టుగా పనిచేయాలని పిలుపునిచ్చారు. శుక్రవారం కేంద్రం వర్చువల్గా నిర్వహించిన ‘వాయిస్ ఆఫ్ ద గ్లోబల్ సౌత్’ రెండో ఎడిషన్ శిఖరాగ్ర సదస్సులో మోదీ మాట్లాడారు. ఇజ్రాయెల్, హమాస్ యుద్ధంలో సాధారణ ప్రజలు చనిపోతుండడం బాధాకరమని చెప్పారు. చర్చలు, దౌత్య మార్గాల్లో వివాదాలను పరిష్కరించుకోవాలన్నారు. 21వ శతాబ్దంలో మార్పులకు లోనవుతున్న ప్రపంచాన్ని ‘వాయిస్ ఆఫ్ ద గ్లోబల్’ వేదిక ప్రతిబింబిస్తోందన్నారు. ఐదు ‘సీ’లు.. కన్సల్టేషన్, కమ్యూనికేషన్, కో–ఆపరేషన్, క్రియేటివిటీ, కెపాసిటీ బిల్డింగ్ అనే ఫ్రేమ్వర్క్ కింద గ్లోబల్ సౌత్ దేశాలు కలిసి పనిచేయాలని పిలుపునిచ్చారు. -
డీప్ఫేక్తో భారత్కు ముప్పు: మోదీ
ఢిల్లీ: ప్రస్తుతం భారత్ ఎదుర్కొంటున్న అతిపెద్ద ముప్పులలో డీప్ఫేక్లు ఒకటని ప్రధాని నరేంద్ర మోదీ అన్నారు. ఇవి సమాజంలో గందరగోళానికి కారణమవుతాయని అన్నారు. ఈ సమస్యపై ప్రజలకు అవగాహన కల్పించాలని ప్రధాని కోరారు. ఢిల్లీలోని పార్టీ ప్రధాన కార్యాలయంలో జరిగిన ఓ కార్యక్రమంలో ఈ మేరకు మాట్లాడారు. ఈ అంశంపై పౌరులు, మీడియా అప్రమత్తంగా ఉండాలని చెప్పారు. ‘‘డీప్ఫేక్ వీడియోలు మన వ్యవస్థకు పెనుముప్పుగా మారుతున్నాయి. ఇవి సమాజంలో గందరగోళానికి కారణమవుతున్నాయి. ఇటీవల నేను పాట పాడినట్లుగా ఓ వీడియో వైరల్ అయ్యింది. ఈ డీప్ఫేక్ వీడియోలపై మీడియా, సోషల్ మీడియా ప్రజలకు అవగాహన కల్పించాలి’’ అని ప్రధాని మోదీ అన్నారు. ప్రస్తుతం జరుగుతున్న అసెంబ్లీ ఎన్నికలలో డీప్ఫేక్లు ప్రజాస్వామ్య సమగ్రతకు సవాళ్లను విసురుతున్నాయి. నకిలీ, నిజమైన క్లిప్ల మధ్య తేడాను గుర్తించడం కష్టతరం చేస్తుంది. రాజకీయ నాయకులను లక్ష్యంగా చేసుకుని చిత్రాలు, నకిలీ వీడియోలను సృష్టిస్తుంది. ఇదీ చదవండి: -
వీడియో కాల్లో డబ్బులు అడుగుతున్నారా?.. ఇది తెలుసుకోండి..
తిరువనంతపురం: ఇటీవలి కాలంలో డీప్ ఫేక్ టెక్నాలజీతో కొందరు కేటుగాళ్లు వీడియో కాల్స్ చేసి మోసాలకు పాల్పడుతున్నారు. డీప్ ఫేక్ టెక్నాలజీ సాయంతో తన స్నేహితులు, కుటుంబ సభ్యులుగా ఫోన్స్ చేస్తూ మోసం చేస్తున్నారు. డీప్ ఫేక్ టెక్నాలజీ సాయంతో ఫ్రెండ్స్ ఫేసులతో వీడియో కాల్స్ చేసి డబ్బులు కాజేస్తున్న కేసులు పెరుగుతున్నాయి. ఇక తాజాగా, కేరళలో తొలి డీప్ ఫేక్ కింద కేసు నమోదు అయ్యింది. వివరాల ప్రకారం.. కేరళలోని కోజికోడ్కు చెందిన ప్రభుత్వోద్యోగి రాధాకృష్ణన్ డీప్ ఫేక్ మోసంలో చిక్కుకొని రూ.30 వేలు పోగొట్టుకున్నారు. ఇక, ఆయన ఫిర్యాదుతో కేరళలో తొలి డీప్ఫేక్ మోసం కేసు నమోదు చేశారు పోలీసులు. అయితే, రాధాకృష్ణన్ కోల్ఇండియా సంస్థలో పని చేసి రిటైరయ్యారు. కాగా, ఆయన పనిచేస్తున్న సమయంలో వేణుకుమార్ అనే మరో వ్యక్తిగా విధులు నిర్వర్వించారు. ఈ క్రమంలో కేటుగాళ్లు వేణుకుమార్ ఫొటో సాయంలో డీప్ ఫేక్ మోసానికి పాల్పడ్డారు. అయితే, వేణుకుమార్ పేరుతో ఇటీవల రాధాకృష్ణన్కు వాట్సాప్లో వీడియో కాల్ చేసి.. తాను దుబాయి ఎయిర్పోర్ట్లో ఉన్నానని చెప్పుకొచ్చాడు. ఇంతలోనే ఇండియాలో తన సోదరి ఆపరేషన్ కోసం రూ.40 వేలు అత్యవసరంగా కావాలని రిక్వెట్ చేశాడు. దీంతో, మరో ఆలోచన లేకుండా వీడియోలో వేణుకుమార్ ముఖం కనిపించడంతో రాధాకృష్ణన్ వెంటనే డబ్బులు పంపించారు. Kerala Police has managed to arrest a man involved in #deepfake scam from gujarat (with assistance from Gujarat Police) who defrauded a man in Kozhikode, Kerala. @VishKVarma follow up coming in English?🤭 pic.twitter.com/3qoANpASag — Sapna Singh (@AdvSapna_) November 9, 2023 ఇదిలా ఉండగా.. కొద్దిసేపటి తర్వాత రాధాకృష్ణన్కు వేణుకుమార్లాగా మళ్లీ ఫోన్ చేసి మరో రూ.30 వేలు కావాలని కోరారు. దీంతో, రాధాకృష్ణన్కు అనుమానం వచ్చింది. వెంటనే తేరుకున్న రాధాకృష్ణన్.. తన స్నేహితుల సాయంతో వేణుకుమార్ ఫోన్ నెంబరును తెలుసుకున్నాడు. అనంతరం, అతడికి కాల్ చేసి.. వివరాలు అడిగాడు. ఈ క్రమంలో వేణుకుమార్.. తాను ఏపీలో ఉన్నానని, ఫోన్ చేయలేదని చెప్పటంతో ఒక్కసారిగా షాకయ్యాడు. ఈ ఘటనపై రాధాకృష్ణన్.. పోలీసులకు ఫిర్యాదు చేయడంతో కేసు నమోదు చేసి దర్యాప్తు చేపట్టారు. దర్యాప్తులో భాగంగా నిందితుడు గుజరాత్కు చెందిన షేక్ మర్తుజ్మియాగా గుర్తించి అరెస్ట్ చేసినట్టు సీపీ రాజ్పాల్ మీనా తెలిపారు. అయితే, ఈ కేసులో ప్రధాన నిందితుడు కుశాల్షా పరారీలో ఉన్నట్టు పోలీసులు వెల్లడించారు. -
Deep Fake: ఇది లోతైన సమస్య!
మేధ అవసరం. సవ్యంగా వాడితే ఆధునిక సాంకేతికత అందించిన కృత్రిమ మేధ (ఏఐ) కూడా అవసరాలు తీర్చవచ్చు. కానీ, దాన్ని అపసవ్యంగా వాడి, అసత్య ప్రచారానికీ, అసభ్య వీడియోలకూ వినియోగిస్తే ఏమవుతుందో నాలుగైదు రోజులుగా తాజా ఉదాహరణలతో చూస్తున్నాం. లిఫ్టులో అడుగిడుతున్న సోషల్ మీడియా ఇన్ఫ్లుయెన్సరైన ఓ బ్రిటిష్ ఇండియన్ మహిళ వీడియోను తీసుకొని, ఆమె ముఖం బదులు ప్రముఖ సినీ నటి రష్మికా మందన్న ముఖాన్ని తగిలించిన డీప్ ఫేక్ వీడియో సోషల్ మీడియాలో వైరల్గా మారి, వివాదం రేపింది. నటి కత్రినా కైఫ్ పైనా ఇలాగే మరో నకిలీ వీడియో బయటకొచ్చింది. పెరిగిన ఏఐ సాంకేతిక వినియోగంతో ఈజీగా మారి, ఇంటర్నెట్ను ముంచెత్తుతున్న ఈ డీప్ ఫేక్లపై మళ్ళీ చర్చ రేగింది. వ్యక్తిగత స్వేచ్ఛ, గోప్యత, గౌరవం మొదలు జాతీయ భద్రత దాకా అన్నిటికీ ముప్పుగా మారుతున్న ఈ సాంకేతికతకు ప్రభుత్వం ముకుతాడు వేయాల్సిన అవసరాన్ని తెరపైకి తెచ్చింది. రకరకాల సాంకేతిక విధానాల ద్వారా బొమ్మలు, వీడియోలు, ఆడియోల్లో ఒక మనిషి స్థానంలో మరో మనిషి రూపాన్నీ, గొంతునూ అచ్చు గుద్దినట్టు ప్రతిసృష్టించి, డిజిటల్గా తిమ్మినిబమ్మిని చేయడమనే ‘డీప్ ఫేక్’ ఇప్పడు ప్రపంచమంతటినీ పట్టిపీడిస్తున్న చీడ. నిజానికి, ఫోటో–షాపింగ్ ద్వారా బొమ్మలు మార్చే పద్ధతి చాలా కాలంగా ఉన్నదే. కానీ, శక్తిమంతమైన మెషిన్ లెర్నింగ్,కృత్రిమ మేధ (ఏఐ) సాంకేతిక పరిజ్ఞానం ద్వారా ఇట్టే బురిడీ కొట్టించేలా వీడియోలు, ఆడియోలు చేయడం డీప్ ఫేక్ను పదునైన అస్త్రంగా మార్చేశాయి. అసలు ఏదో, నకిలీ ఏదో కనిపెట్టేందుకు పలు పద్ధతులు లేకపోలేదు. అయితే, అసలు సంగతి వివరించేలోగా సోషల్ మీడియా పుణ్యమా అని నకిలీ సమాచారం క్షణాల్లో లోకాన్ని చుట్టేస్తోంది. చివరకు నాసిరకం డీప్ఫేక్లు సైతం జనం మనసులో అనుమానాలు రేపి, అసలు సిసలు సమాచారాన్ని వెనక్కి నెట్టేస్తున్నాయి. వాతావరణాన్ని కలుషితం చేస్తున్నాయి. పోనుపోనూ సాంకేతికత పదును తేరి, అందరికీ అందుబాటులోకి వస్తే, డీప్ఫేక్లు నైసు తేలతాయి. అప్పుడిక అసలు, నకిలీలలో తేడాలు పసిగట్టడం ఇంకా కష్టం. ఇవాళ కంపెనీలు, రాజకీయ పార్టీలు, నేతలు తమకంటూ సొంత ఇమేజ్ సృష్టించుకోవడానికీ, పెంచుకోవడానికీ, చివరకు ప్రత్యర్థులపై బురదచల్లడానికి ఫేక్ న్యూస్ను ఆసరాగా చేసుకుంటున్న తీరు చూస్తున్నాం. ఫలితంగా, అవి జనం మానసిక స్థితిపై ముద్ర వేసి, వారు తీసుకొనే నిర్ణయాలను ప్రభావితం చేయడమూ జరుగుతోంది. సమాచారం కోసం ఆన్లైన్పై అధికంగా ఆధారపడడం, సామాన్యుల్లో సైతం ఇంటర్నెట్ వినియోగం పెరిగాక వచ్చిన కొత్త తలనొప్పులివి. బాట్లు, ట్రోల్స్, ప్రభావం చూపే ప్రచారాలు... ఇలా పేర్లు ఏమైనా, అన్నిటి పనీ ఒకటే! ఆన్లైన్లో తమకు కావాల్సినట్టు కథనాలు వండివార్చడమే! మెషిన్ లెర్నింగ్ అల్గారిథమ్స్ వగైరా ఆధునిక సాంకేతికతల పుణ్యమా అని త్వరలోనే పూర్తిగా ఏఐ సృష్టించిన వార్తా కథనాలు, పాడ్ కాస్ట్లు, డీప్ ఫేక్ చిత్రాలు, వీడియోలతో కూడిన డిజిటల్ ప్రపంచాన్ని మనం పంచుకోవాల్సిన పరిస్థితి. మనం ఊహించలేనంత స్థాయిలో, వేగంతో ఇవన్నీ డిజిటల్ ప్రపంచాన్ని ముంచెత్తనున్నాయి. ఓ అధ్యయనం ప్రకారం 2018 నాటికి కనిపెట్టిన డీప్ఫేక్లు 10 వేల లోపే! ఇవాళ ఆన్లైన్లో వాటి సంఖ్య లక్షల్లోకి చేరింది. కొత్త కృత్రిమ మీడియా సమాచారం ఆందోళనకరం. నిరుడు ఉక్రెయిన్పై దాడిని సమర్థించుకొనేందుకు రష్యా డీప్ ఫేక్లను వాడే ప్రమాదం ఉందని పాశ్చాత్య దేశాలు అనుమానించాయి. ఈ ఏడాది మే నెలలో వైట్హౌస్ సమీపంలో పొగ వస్తున్న డీప్ఫేక్ చిత్రం దెబ్బకు స్టాక్ మార్కెట్లు కుప్పకూలాయి. డీప్ఫేక్ కాకున్నా, రచయితల సమ్మె వేళ స్వర్గీయ తారల్ని తెరపై పునఃసృష్టించే పనికి హాలీవుడ్ స్టూడియోలు దిగడమూ నైతికతపై చర్చ రేపింది. సైబర్ ఆర్థిక నేరాలు, అసలును పోలిన నకిలీ సృష్టితో శీలహననం నుంచి దేశ భద్రత దాకా సాంకేతికత నీలినీడ పరుస్తోంది. సినీ తారలు ఇవాళ ఎదుర్కొన్న ఇబ్బంది సామాన్యులకు ఎదురవడానికి ఎంతో కాలం పట్టదు. ఈ ఏడాది ప్రపంచంలో 5 లక్షల డీప్ఫేక్ ఆడియో, వీడియోలు సోషల్ మీడియాలో షేరవుతాయని అంచనా. పైగా, డీప్ఫేక్ వీడియోల్లో 98 శాతం ఆడవారిపై చేసినవే. బాధిత ప్రపంచ దేశాల్లో 6వ స్థానం మనదే! ఆ మాటకొస్తే, 2020లోనే అజ్ఞాత సేవగా సాగిన ‘డీప్ న్యూడ్’ గురించి పరిశోధకులు బయటపెట్టారు. ఒక వ్యక్తి ఫోటోలను వారి అంగీకారంతో సంబంధం లేకుండా, క్రమం తప్పక అందించడం ద్వారా నకిలీ నగ్నచిత్రాలను సృష్టించే ఆ సర్వీస్పై రచ్చ రేగింది. పలు పాశ్చాత్య దేశాల్లో అరెస్టులు, దర్యాప్తులు, చట్టాల్లో మార్పులు జరిగాయి. కాలంతో పాటు సాంకేతికత మారి, జనజీవితంపై దాడి చేస్తున్న సమయంలో మన ప్రభుత్వాలు అవసరమైన కట్టుదిట్టాలు, చట్టాలు చేయకపోవడం సమస్య. ఫిర్యాదు చేసిన 24 గంటల్లో సోషల్ మీడియా సంస్థలు సదరు మార్ఫింగ్ కంటెంట్ను తొలగించాలన్న రూలు ఇప్పటికే ఉంది. కానీ, డీప్ ఫేక్లను ముందే అరికట్టే చర్యలు అవసరం. అమెరికా లాంటి చోట్ల అరకొర చట్టాలతోనైనా ఆపే ప్రయత్నం జరుగుతోంది. బ్రిటన్లో డీప్ఫేక్ అశ్లీల వీడియోల తయారీ చట్టరీత్యా నేరం. చైనాలో ఏకంగా నిషేధమే ఉంది. వీడియోను మార్చినా, మార్పు చేసిన వీడియో అని రాయాల్సిందే. యూరోపియన్ యూనియన్ లాంటివీ కఠిన నియమాల రూపకల్పనకు కిందా మీదా పడు తున్నాయి. మన దేశంలోనూ అలాంటి ప్రయత్నం తక్షణమే జరగాలి. బాహ్య ప్రపంచంలో లానే వర్చ్యువల్ లోకంలోనూ వనితలను లక్ష్యంగా చేసుకొని, వారిపై సాగుతున్న ఈ హేయమైన దాడిని అడ్డకుంటే అది సభ్య సమాజానికే అవమానం. -
ఇది వరమా లేక శాపమా..? భయమేస్తోంది : కీర్తి సురేశ్
స్టార్ హీరోయిన్ రష్మిక డీప్ఫేక్ వీడియో అంశం దేశవ్యాప్తంగా తీవ్ర దుమారం రేపుతోంది. సినీ ప్రముఖుల నుంచి మొదలు ప్రభుత్వ పెద్దల వరకు ఈ అంశాన్ని సీరియస్గా పరిగణించారు. ఇప్పటికే ఈ వీడియోపై అమితాబ్ బచ్చన్, నాగ చైతన్య, మా అధ్యక్షుడు మంచు విష్ణు, విజయ్ దేవరకొండ లాంటి అగ్ర నటీనటులు స్పందించారు. తాజాగా స్టార్ హీరోయిన్ కీర్తి సురేశ్ కూడా సోషల్ మీడియా వేదికగా రష్మిక డీప్ఫేక్ వీడియో ఘటనపై స్పందిస్తూ.. ఇలాంటి చెత్త వీడియోలు సృష్టించే బదులు.. ఆ సమయంలో అందరికి ఉపయోగపడే పని చేసి ఉండాల్సిందని ఆమె అన్నారు. ‘సోషల్ మీడియాలో వైరల్ అవుతున్న డీప్ఫేక్ వీడియో చూస్తుంటే భయం వేస్తోంది. ఇలాంటి చెత్త వీడియోలను క్రియేట్ చేసే వ్యక్తి.. ఆ టెక్నాలజీని, విలువైన సమయాన్ని ఏదైన మంచి పనికి ఉపయోగించాల్సింది. ప్రస్తుతం అభివృద్ది చెందిన ఈ టెక్నాలజీ మనకు వరమో లేక శాపమో అర్థం కావట్లేదు. ప్రేమను, మంచి పంచడం కోసం ఈ టెక్నాలజీని ఉపయోగిద్దాం.అంతేకానీ చెత్తను పంచుకోవడం కోసం కాదు’ అని కీర్తి సురేశ్ ట్వీట్ చేశారు. ఇటీవల ‘భోళా శంకర్’తో ప్రేక్షకులను అలరించిన కీర్తి..ప్రస్తుతం ‘సైరెన్’, ‘రఘు తాత’, ‘రివాల్వర్ రీటా’, ‘కన్నివెడి’ తదితర తమిళ చిత్రాల్లో నటిస్తోంది. The deep-fake video that’s going around is scary. I really wish the person who had done this could have rather used that time to do something productive and not put the people involved, into misery. I don’t understand if technology for us today is a boon or a bane. Let’s use this… — Keerthy Suresh (@KeerthyOfficial) November 8, 2023 -
రష్మిక ఫేక్ వీడియో.. విజయ్ దేవరకొండ పోస్ట్ వైరల్!
నేషనల్ క్రష్ రష్మిక మందన్నా డీప్ ఫేక్ వీడియోపై సినీ తారలు స్పందిస్తున్నారు. ఇప్పటికే ఈ వీడియోపై అమితాబ్ బచ్చన్, నాగ చైతన్య, మా అధ్యక్షుడు మంచు విష్ణు ఖండిస్తూ పోస్టులు పెట్టారు. తాజాగా రష్మిక మార్ఫింగ్ వీడియోపై టాలీవుడ్ హీరో విజయ్ దేవరకొండ రియాక్ట్ అయ్యారు. ఇలాంటి వారిపట్ల కఠిన చర్యలు తీసుకోవాలని పలువురు విజ్ఞప్తి చేస్తున్నారు. (ఇది చదవండి: రష్మిక ఫేక్ వీడియో ఘటన.. 'మా' అధ్యక్షుడి రియాక్షన్) విజయ్ దేవరకొండ తన ఇన్స్టా స్టోరీస్లో రాస్తూ.. 'భవిష్యత్తులో ఇలాంటి జరగకుండా కఠిన చర్యలు తీసుకోవాలి. మరో మహిళకు ఇలా జరగకూడదు. వీటిపై తక్షణమే స్పందించి చర్యలు తీసుకునేలా ప్రత్యేక సైబర్ విభాగాన్ని ఏర్పాటు చేయాలి. ఇలాంటి దారుణాలకు పాల్పడే వారిని కఠినంగా శిక్షించాలి. అప్పుడే మహిళలకు పూర్తి రక్షణ ఉంటుంది.' అంటూ తన ఇన్స్టాలో పోస్ట్ చేశారు. కాగా.. ఈ సంఘటనను సీరియస్గా తీసుకున్న కేంద్రం సోషల్ మీడియాలో ఇలాంటి నేరాలను అరికట్టేందుకు హెచ్చరికలు జారీ చేసింది. సోషల్ మీడియా ప్లాట్ఫామ్స్లో ఇలాంటి వీడియోలను 36 గంటల్లోగా తొలగించాలని.. ఎక్కడా కనిపించకూడదంటూ కేంద్రం ఆదేశాలిచ్చింది. నిబంధనలను గుర్తు చేస్తూ ఓ అడ్వయిజరీని జారీ చేసింది. డీప్ఫేక్ వంటి వీడియోలు క్రియేషన్, సర్క్యులేషన్కు సంబంధించిన పెనాల్టీలు, నిబంధనలు గుర్తు చేస్తూ కేంద్ర ఎలక్ట్రానిక్స్, కమ్యూనికేషన్ మంత్రిత్వ శాఖ ఆయా సోషల్మీడియా సంస్థలకు అడ్వయిజరీని పంపించింది. (ఇది చదవండి: ఓటీటీకి మా ఊరి పొలిమేర-2.. స్ట్రీమింగ్ అప్పుడేనా?) -
ఏఐతో కొత్త రకం మోసం - తెలిసిన ముఖమే అనుకున్నారో..
ప్రపంచం అభివృద్ధివైపు పరుగులు పెడుతున్న తరుణంలో కొత్త కొత్త టెక్నాలజీలు పుట్టుకొస్తున్నాయి. ఇందులో భాగంగానే ఏఐ (ఆర్టిఫీషియల్ ఇంటెలిజెన్స్) అరంగేట్రం చేసింది. ఇది చాలా రంగాలకు ఉపయోగకరంగా ఉన్నప్పటికీ.. సైబర్ నేరగాళ్లు ఈ టెక్నాలజీ ఉపయోగించి కొత్త నేరాలకు పాల్పడుతున్నారు. తాజాగా ఇలాంటి సంఘటన ఒకటి వెలుగులోకి వచ్చింది. దీని గురించి మరిన్ని వివరాలు ఈ కథనంలో తెలుసుకుందాం. నివేదికల ప్రకారం, కేరళ కోజికోడ్కు చెందిన 'రాధాకృష్ణన్' అనే వ్యక్తికి గుర్తుతెలియని ఒక నెంబర్ నుంచి వీడియో కాల్ వచ్చింది. అవతలి వైపు మాట్లాడుతున్న వ్యక్తి ఆంధ్రప్రదేశ్లోని అతని మాజీ సహోద్యోగిని పోలి ఉన్నట్లు తెలిసింది. ఆ వ్యక్తి తనకు తెలిసిన వ్యక్తి అనుకుని సంభాషణ కొనసాగించాడు. మాట్లాడుతున్న సమయంలో తాను ఆసుపత్రిలో ఉన్న బంధువుకు సాయం చేయాలనీ రూ. 40,000 కావాలని అభ్యర్థించాడు. ఏఐ డీప్ఫేకింగ్.. తెలిసిన వ్యక్తి కష్టాల్లో ఉన్నాడని వెంటనే రాధాకృష్ణన్ రూ. 40,000 పంపించాడు. ఆ తరువాత కొంతసేపటికి మళ్ళీ రూ. 35000 కావాలని అడిగాడు. దీంతో సదరు వ్యక్తికి అనుమానం రావడంతో పోలీసులకు ఫిర్యాదు చేసాడు. రంగంలోకి దిగిన పోలీసులు అసలు నిజాలు వెల్లడించారు. (ఇదీ చదవండి: ఇషా అంబానీ నివాస భవనం ఎన్ని కొట్లో తెలిస్తే మైండ్ బ్లాక్ అవుతుంది!) మోసానికి పాల్పడిన వ్యక్తి AI డీప్ఫేకింగ్ ఉపయోగించి డబ్బు తీసుకున్నట్లు, లావాదేవీలు మహారాష్ట్రలోని ఓ ప్రైవేట్ బ్యాంక్కు జరిగినట్లు పోలీసులు తెలిపారు. బాధితుడికి డబ్బు తిరిగి అప్పగించినట్లు సమాచారం. కేరళలో ఇలాంటి చీటింగ్ వెలుగులోకి రావడం కేసు ఇదే మొదటిదని భావిస్తున్నారు. కావున ప్రజలు చాలా జాగ్రత్తగా ఉండాలని హెచ్చరించారు. -
ఏఐ ఫేస్ స్కాం.. వీడియోలో స్నేహితుని ముఖం చూపించి...
జీవితాన్ని మరింత సులభతరం చేసేందుకు మనిషి టెక్నాలజీని వీలైనంత మేరకు వినియోగిస్తున్నాడు. తాజాగా ఇదే కోవలో మనిషి జీవితంలోకి ఆర్టిఫిషియల్ ఇంటెలిజెన్స్(ఏఐ) ప్రవేశించింది. దీనిని అందరూ ఒక అద్భుతంగా భావిస్తున్నారు. అయితే ఇంతలోనే ఏఐని అక్రమ కార్యకలాపాలకు వినియోగించడం కూడా మొదలయ్యింది. డీప్ ఫేక్ ఇమేజ్, వీడియో టూల్ మొదలైనవి ఆన్లైన్ మోసాలకు ఉపకరించేవిగా మారిపోయాయి. ఇటువంటి మోసం ఒకటి చైనాలో చోటుచేసుకుంది. ఉత్తర చైనాకు చెందిన ఒక వ్యక్తి డీప్ ఫేక్ టెక్నిక్ ఉపయోగించి ఐదు కోట్లకుపైగా మొత్తాన్ని కొల్లగొట్టాడు. డీప్ఫేక్ అంటే ఫేక్ డిజిటల్ ఫొటో, దీని ఆధారంగా రూపొందించే వీడియో చూసేందుకు నిజమైనదిగానే కనిపిస్తుంది. దీని ఆధారంగా తప్పుడు సమాచారాన్ని వ్యాపింపజేసే అవకాశం ఏర్పడుతుంది. మీడియాకు అందిన సమాచారం ప్రకారం ఉత్తర చైనాకు చెందిన ఒక మోసగాడు డీప్ ఫేక్ టెక్నిక్ సాయంతో ఒక వ్యక్తి నుంచి తన ఖాతాలోకి కోట్లాది రూపాయలు ట్రాన్స్ఫర్ చేయించుకున్నాడు. స్కామర్.. ఏఐ- వైఫై ఫేస్ స్వైపింగ్ టెక్నిక్ సాయంతో ఈ మోసానికి పాల్పడ్డాడు. బావోటా సిటీ పోలీసులు తెలిపిన వివరాల ప్రకారం మోసగాడు వీడియో కాల్లో స్నేహితునిగా మారి, అతని నుంచి 4.3 మిలియన్ల యువాన్లు(సుమారు రూ. 5 కోట్లు) ట్రాన్స్ ఫర్ చేయాలని కోరాడు. ఈ సందర్భంగా బాధితుడు మాట్లాడుతూ.. తన స్నేహితుడు కష్టాల్లో ఉన్నాడని నమ్మి, తాను డబ్బులు టాన్స్ఫర్ చేశానని తెలిపాడు. అయితే తన స్నేహితుడు అసలు విషయం చెప్పడంతో మోసపోయానని గ్రహించానన్నాడు. ఈ ఉదంతంలో పోలీసులు దర్యాప్తు ప్రారంభించారు. చదవండి: ఆ రోడ్డుపై ప్రయాణిస్తూ 14 దేశాలు దాటేయొచ్చు.. ఎక్కడుందో తెలుసా! -
వీడెవడండీ బాబూ.. ఎలన్ మస్క్ షాకయ్యే సీన్ ఇది!
టెక్నాలజీ ఎంతగా అభివృద్ధి చెందిందంటే.. అనని మాటలు అన్నట్లు, చెయ్యని చేష్టలు చేసినట్లు చూపించగలిగే జిమ్మిక్కు చేయగలుగుతున్నారు. అందుకే ఏది నిజమో ఏది అబద్ధమో తేల్చుకునేందుకు చాలా టైం పడుతోంది. ఇదిలా ఉంటే ఇంటర్నెట్లో వైరల్ అవుతున్న ఓ వీడియోపై రకరకాల రియాక్షన్లు వెలువడుతున్నాయి. ఎలన్ మస్క్.. టెస్లా కంపెనీ సీఈవోగా, ప్రపంచంలో అత్యధిక సంపద కలిగి ఉన్న వ్యక్తిగా కొనసాగుతున్నాడు. అలాంటి వ్యక్తిని పోలి ఉన్న మరో వ్యక్తి వీడియో ఒకటి ఇంటర్నెట్లో సర్క్యూలేట్ అవుతోంది. చైనీస్ టిక్టాక్ యాప్ డౌయిన్ నుంచి గత రెండు వారాలుగా ఓ వీడియో వైరల్ అవుతోంది. బ్లాక్ జాకెట్ వేసుకున్న ఓ వ్యక్తి అచ్చం ఎలన్ మస్క్లా ఉండడం, అదే తరహా హవభావాలు ప్రదర్శించడం ఆ వీడియోలో ఉంది. అక్కడి నుంచి డౌన్లోడ్ చేసిన ఆ వీడియోను తాజాగా ఫేస్బుక్, ట్విటర్ ఇతర మాధ్యమాల ద్వారా వైరల్ చేస్తున్నారు. REPORT: Elon Musk doppelganger discovered in China.pic.twitter.com/tivuhbS97w — New Granada (@NewGranada1979) December 5, 2021 ఆ వీడియో ఒరిజినలేనా? లేదంటే డీప్ఫేక్ టెక్నాలజీ ద్వారా రూపొందించిందా? ఇంతకీ అతని పేరు, ఊరు, ఐడెంటిటీ గురించి తెలియాల్సి ఉంది. ఈ లోపు ‘యి లాంగ్ మస్క్’ అంటూ వెటకారంగా చైనీస్ వెర్షన్ అంటూ ఆ వీడియోను వైరల్ చేస్తున్నారు చాలా మంది. ఇంకొందరు ఏకంగా ఎలన్ మస్క్కే ట్యాగ్ చేసినప్పటికీ.. ఆయన ఇంకా స్పందించలేదు. ఒకవేళ చూసి ఉంటే కచ్చితంగా తన స్టయిల్లో స్పందించేవాడేమో. అది డీప్ ఫేక్ వీడియో గనుక అయితే మాత్రం.. ఇలాంటి వ్యవహారం కొత్తేం కాదు. గతంలో జెఫ్ బెజోస్, ఎలన్ మస్క్ల మీద స్టార్ ట్రెక్ డీప్ఫేక్ వీడియో ఒకటి విపరీతంగా వైరల్ అయ్యింది. లేదు అది నిజమే అయితే గనుక ఆ చైనీస్వెర్షన్ ఎలన్ మస్క్ ఫేమ్ చాలాకాలం పాటు పదిలంగా ఉండడం ఖాయం. చదవండి: ఆ టైంలో చేతిలో చిల్లి గవ్వ లేదు: ఎలన్ మస్క్ -
ఇదేం టెక్నాలజీ! మన తారలకు చెప్పుకోలేని తలనొప్పి
గ్లామర్ ప్రపంచం.. ఎక్కువ మందిని తనవైపు లాగే ఒక ఆకర్షణ. సెలబ్రిటీలు ఏ పని చేసినా.. అదో వైరల్ న్యూస్ అవుతున్న రోజులివి. ముఖ్యంగా ఫిమేల్ సెలబ్రిటీల విషయంలో ఇది ఎక్కువగా ఉంటోంది. వాళ్ల దృష్టిలో ఇంటర్నెట్ అనేది ఫ్రీ ప్రమోషన్ ఎలిమెంట్. అందుకే తమ క్రేజ్ను నిలబెట్టుకునేందుకు గ్లామర్ ఫొటో-వీడియో కంటెంట్ను క్రమం తప్పకుండా షేర్ చేస్తుంటారు. అయితే వాళ్లకు తెలియకుండానే ఆ కంటెంట్ తప్పుడు దోవలో వెళ్తోంది. ఆ కంటెంట్ను మార్ఫింగ్ చేసి ఇంటర్నెట్నిండా ఫేక్ ఫొటోలు, అశ్లీల వీడియోలతో నింపేస్తున్నారు కొందరు. వెబ్ డెస్క్: ‘ఫేస్ మారిపోతది.. ఫన్ పుడుతది’.. ఈ ప్రచారంతోనే ఎడిటింగ్ యాప్స్ల హవా సాగుతోంది ఇప్పడు. కానీ, తెర వెనుక జరిగే తతంగం అంతా వేరే ఉంటోంది. సరదా కోణంలో చూసుకుంటున్నప్పటికీ.. అశ్లీల కంటెంట్ విపరీతంగా జనరేట్ కావడానికి ఇవే ప్రధాన కారణం అవుతున్నాయి. రోజుకి సుమారు 40 లక్షల ఎడిటింగ్ వీడియోలు, 3 కోట్లకు పైగా ‘ఫేక్’(ఎడిటింగ్) కంటెంట్ అప్లోడ్ అవుతున్నట్లు ఒక అంచనా. ఈ విషయంలో మామూలు వ్యక్తుల కంటే సెలబ్రిటీలు ఎక్కువగా బాధితులుగా మారుతున్నారు. . దీంతో విదేశాల్లో ఈ వ్యవహారాన్ని సెలబ్రిటీలు అంత తేలికగా తీసుకోవడం లేదు. హాలీవుడ్లో అయితే ఇలాంటి అశ్లీల కంటెంట్ కట్టడి కోసం పెద్ద ఉద్యమమే నడుస్తోంది. వీళ్లంతా పోరాడుతున్నారు మనదగ్గర దాదాపు పాతరం, కొత్త తారలంతా ఫేక్ఎడిటింగ్ కంటెంట్ బాధితులుగానే ఉన్నారు. అయితే తమను నెట్టింటికీడుస్తున్న వ్యవహారాలపై పోరాడటానికి ఎందుకనో వెనుకంజ వేస్తున్నారు. విదేశాల్లో మాత్రం ఇలాంటి కంటెంట్ను హీరోయిన్లు సహించడం లేదు. హాలీవుడ్ నటీమణులు కేట్ విన్స్లెట్, జెస్సికా ఆల్బాలు ఈ విషయంలో సైబర్ సంబంధిత విభాగాల్లో ఫిర్యాదులు చేయడంతో పాటు సోషల్ మీడియాలో ఈ వ్యవహారంపై ఓపెన్గా చర్చించారు. ఇక ‘వండర్ వుమెన్’ గాల్ గడోట్అయితే ఏకంగా అశ్లీల కంటెంట్ కట్టడి కోసం చిన్నసైజు ఉద్యమాన్నే నడిపిస్తోంది. నటి గాల్ గాడోట్ ఈజిప్ట్ నటి నెల్లీ కరీం.. ఓ అడుగు ముందుకు వేసి తన పేరుతో వైరల్ అవుతున్న కంటెంట్ను సోషల్ మీడియాలో స్క్రీన్ షాట్స్ షేర్ చేసి మరీ నిరసన వ్యక్తం చేసింది. కొందరు బ్రిటన్ భామలు ఈ విషయంలో కఠినంగా వ్యవహరించాలని ప్రభుత్వానికి విజ్ఞప్తులు చేస్తున్నారు. ప్రత్యేక చట్టాల ద్వారా కట్టడికి వీలు లేనప్పుడు.. అలాంటి సైట్లను పూర్తిగా నిషేధించడం ద్వారా అడ్డుకట్ట వేయాలని కోరుతున్నారు. మన దగ్గరికి వస్తే బాలీవుడ్, మాలీవుడ్, కోలీవుడ్, టాలీవుడ్..భాషలకతీతంగా చాలామంది హీరోయిన్లు ఈ వ్యవహారంలో బాధితులుగా మారుతున్నారు. గూగుల్లో వాళ్ల కంటెంట్ కుప్పలుగా కనిపిస్తోంది. దారుణమైన విషయం ఏంటంటే.. ప్రముఖ సోషల్ మీడియా యాప్స్లోనూ వందల కొద్ది అకౌంట్ల ద్వారా అవి వైరల్ అవుతుండడం, వాటికి వేల నుంచి లక్షల మంది ఫాలోవర్స్ ఉండడం. వాళ్లే బెటర్ నాలుగు నెలల క్రితం కోలీవుడ్కు చెందిన ఓ నటి.. ట్విటర్లో హీరోయిన్ల ఫేక్ ఫొటోల్ని షేర్ చేస్తున్న ఓ అడల్ట్ అకౌంట్కు ఫాలో రిక్వెస్ట్ పెట్టింది. అది చూసి సంబురంగా ఆ స్క్రీన్ షాట్ను షేర్ చేసి.. ఆమె రిక్వెస్ట్ను యాక్సెప్ట్ చేశాడు ఆ అకౌంట్ అడ్మిన్. వెంటనే సైబర్ విభాగానికి ఫిర్యాదు చేసిన ఆ నటి.. అతన్ని కటకటాల వెనక్కి నెట్టించింది. తాజాగా భోజ్పురికి చెందిన ఇద్దరు హీరోయిన్లు తమ పేరుతో వైరల్ అవుతున్న కంటెంట్ మీద కోర్టుకు వెళ్లారు. ఇలా ఎంతోమంది చిన్నాచితకా హీరోయిన్లు అశ్లీల కంటెంట్ వ్యాప్తిపై ధైర్యంగా ముందుకొచ్చి పోరాడుతున్నారు. సాధారణంగా ఇలాంటి వేధింపులు ఎవరికైనా ఎదురైనప్పుడు వ్యక్తిగతంగా ఫిర్యాదులు చేయడానికి ఆస్కారం ఉంటుందని, అవసరం అనుకుంటే ఫిర్యాదుదారుడి సమాచారం సైతం గోప్యంగా ఉంటుందని గుర్తు చేస్తున్నారు న్యాయ నిపుణులు. ►సెక్షన్ 292(అశ్లీల కంటెంట్ను సర్క్యులేట్చేయడం) ► 354సీ (అనుమతి లేకుండా అసభ్య వీడియోల్ని చిత్రీకరించడం), ► 499 (వ్యక్తిగత ప్రతిష్టకు భంగం కలిగించడం), ► 509 (మహిళా గౌరవానికి భంగం కలిగించడం), ► వీటితో పాటు ఐటీ యాక్ట్లోని సెక్షన్లు 66ఈ, 67, 67ఎ, 72 సెక్షన్ల ప్రకారం ఉపశమనం పొందొచ్చు. ఫేస్ స్వాప్ ఫొటో, వీడియో ఎడిటింగ్ యాప్లలో ఫిల్టర్లు, ఫొటో మార్ఫింగ్లు సాధారణమైన వ్యవహారాలు. కానీ, టెక్నాలజీ అప్డేట్ మూలంగా అది మరీ శ్రుతి మించిపోతోంది. ఫేస్ స్వాప్.. అశ్లీల టెక్నాలజీని పెంపొదిస్తున్న వాటిల్లో ఒకటిగా మారింది. ఒకరి ముఖం ప్లేస్లో మరొకరి ఫేస్ ఉంచడమే దీని ఉద్దేశం. మొదట్లో రివెంజ్ పోర్న్ ద్వారా వార్తల్లో నిలిచిన ఫేస్ స్వాప్.. ఆ తర్వాత ఓ ఎంటర్టైనింగ్ ఫీచర్\టూల్గా మారింది. ఇప్పుడు దీనిని ఆసరాగా తీసుకుని సెలబ్రిటీలను తెర మీదకు తెస్తున్నారు కొందరు. హీరోయిన్ల ఫొటోలను ఎడిట్ చేసి.. ఇంటర్నెట్లో వదులుతున్నారు. డీప్ఫేక్ ఫీచర్ ఇది ఒకరకంగా మార్ఫింగ్ లాంటిదే. అల్రెడీ ఉన్న వీడియోతోగానీ, అప్పటికప్పుడు చేసే వీడియోతో ఫన్నీ కంటెంట్ క్రియేట్ చేసేందుకు ఉద్దేశించి రూపొందించిన ఫీచర్. అర్టిఫీషియల్ ఇంటెలిజెన్సీ(ఏఐ)తో పని చేసే సింథటిక్ టెక్నాలజీ ఇది. దీని ద్వారా ఒక వీడియోలోగానీ, ఫొటోలోగానీ ముఖాన్ని ఈ ఫీచర్ ద్వారా మార్చేయొచ్చు. ఆ ప్లేస్లో యూజర్ తన ఫేస్ని లేదంటే తనకు కావాల్సిన ముఖాన్ని అప్డేట్ చేసి ఓ కొత్త వీడియో క్రియేట్ చేసుకోవచ్చు. ఇదంతా ఒక సరదా వ్యవహారం. ఇందుకోసం కోట్లు ఖర్చు చేసి ఏఐ టెక్నాలజీ సాయం తీసుకుంటున్నాయి వీడియో ఎడిటింగ్ యాప్లు. కానీ, గ్లామర్ ఫీల్డ్లో ఉన్న సెలబ్రిటీలకు.. ఫేక్ వీడియోల ద్వారా ఈ టెక్నాలజీ కొత్త తలనొప్పి తీసుకొస్తోంది. కంట్రోల్ కాదనేనా? గతంలో ఇలాంటి కంటెంట్ తెరపైకి వచ్చినప్పుడు.. ఖండించిన తారలూ లేకపోలేదు. కానీ, ఇప్పుడా పరిస్థితి కనిపించడం లేదు. కొందరు సరదా కోసం ఎడిటింగ్ టెక్నాలజీని ఉపయోగిస్తుంటే.. మరికొందరు సెలబ్రిటీలను టార్గెట్ చేస్తూ వీడియోలు చేస్తున్నారు. అనని మాటల్ని అన్నట్లు.. చేయని పనుల్ని చేసినట్లు చూపిస్తున్నారు. కాంట్రవర్సీలు, ఫేక్ సెక్స్ స్కాండల్స్తో ఇబ్బందుల్లోకి నెట్టేస్తున్నారు. దీంతో టెక్నాలజీ ‘సేఫ్టీ’పై అనుమానాలు తలెత్తుతున్నాయి. సోషల్ మీడియాలో ఇలాంటి వాటిని కంట్రోల్ చేయడానికి ‘ప్రీ ఎంప్టివ్ రీసెర్చ్’ సర్వీస్ ఉంది. ఈ సర్వీస్ ద్వారా యూజర్ జనరేట్ కంటెంట్ను కంట్రోల్ చేయగలిగినా.. ఇతర సైట్లతో మళ్లీ వైరల్ అవ్వొచ్చని టెక్ నిపుణులు చెప్తున్నారు. ఇలాంటి వ్యవహారాలేవీ కొత్తేం కాదని, ఎంత నియంత్రించినా మళ్లీ మళ్లీ తెరపైకి వస్తూనే ఉంటాయని చెప్తున్నారు నెదర్లాండ్స్ ఆర్ట్ఈజెడ్ యూనివర్సిటీ ‘ఎస్తెటిక్స్ అండ్ కల్చర్ ఆఫ్ టెక్నాలజీ’ ప్రొఫెసర్ నిశాంత్షా. బహుశా ఈ కోణంలోనే ఆ ఫేక్ బురదలో రాయి వేయడం ఎందుకని ఈ తలనొప్పిని పంటి బిగువున భరిస్తున్నారనే వాదన కూడా ఒకటి వినిపిస్తోంది. చదవండి: సెల్ఫోన్ టవర్లు, కేబుళ్లు కనుమరుగు కానున్నాయా..!