Logo
Logo
×

বিনোদন

ডিপফেক ভিডিওর শিকার বিদ্যা, করলেন সতর্ক

Icon

বিনোদন ডেস্ক

প্রকাশ: ০৬ মার্চ ২০২৫, ১১:০৫ এএম

ডিপফেক ভিডিওর শিকার বিদ্যা, করলেন সতর্ক

ছবি: সংগৃহীত

নাক-মুখ তো বটেই, কণ্ঠস্বরেও কোনো পার্থক্য নেই! চেনা ভঙ্গিতে বসেছেন। নিজের নাম বলে অনুরাগীদের সম্বোধন করছেন। অথচ বলিউড অভিনেত্রী বিদ্যা বালানের দাবি— ‘এ আমি সে আমি নই’! 

সম্প্রতি এভাবেই বিদ্যা সতর্ক করলেন তার অনুরাগীদের। সামাজিক মাধ্যমে ভাইরাল হওয়া একটি ভিডিও শেয়ার করে অভিনেত্রী দাবি করে বলেছেন, পুরোটাই কৃত্রিম বুদ্ধিমত্তার কারসাজি বা ডিপফেক। আমার নকল বানিয়ে অপপ্রচার চালানো হচ্ছে। আমাকে না জানিয়েই, দয়া করে আপনারা এই ফাঁদে পা দেবেন না! বলা কথা লেখার আকারেও শেয়ার করেছেন বিদ্যা।

খ্যাতি যেমন আছে, খ্যাতির বিড়ম্বনাও রয়েছে। সমাজ যত বিজ্ঞানমনস্ক হয়েছে, ততই প্রাসঙ্গিক ‘মানুষের জীবনে বিজ্ঞান আশীর্বাদ না অভিশাপ’ প্রসঙ্গটি। এ ক্ষেত্রে কৃত্রিম বুদ্ধিমত্তা বা এআই প্রযুক্তির কথাই ধরা যাক। একা বিদ্যা নন, এর আগে এই বিশেষ পদ্ধতির ফাঁদে পড়েছেন দীপিকা পাড়ুকোন, রাশমিকা মান্দানা, আলিয়া ভাট, ক্যাটরিনা কাইফ, রণবীর সিং, আমির খান, শচীন টেন্ডুলকার এবং আরও অনেকে। এদের মধ্যে দীপিকা, আলিয়া, রাশমিকা, ক্যাটরিনার কৃত্রিম বুদ্ধিমত্তায় তৈরি ছবি অশ্লীল ও আপত্তিজনক দেখা গেছে। যে কারণে তারা অনুরাগীদের কাছে অকারণে লাঞ্ছিত হয়েছেন। নিজেদের সম্মান বাঁচাতে দ্বারস্থ হয়েছেন আদালতের। এবার বুঝি বিদ্যার পালা!

যদিও নকল বিদ্যার ভিডিও বলছে, অভিনেত্রীকে অশ্লীলভাবে দেখানো হয়নি। তার মুখে বসানো হয়েছে এমন কিছু বক্তব্য, যার সঙ্গে সহমত নন তিনি নিজেই। বিদ্যার এখানেই আপত্তি। তার দাবি, আমি যা বিশ্বাস করি না, সেটাই ‘নকল’ আমি-র মুখে বসানো, যা দেখে বিভ্রান্ত হচ্ছেন অনুরাগীরা। এ ধরনের প্রযুক্তি ভীষণ অপছন্দ করি। যে কারণে নিজেই এখনো বিশ্বাস করে উঠতে পারছেন না, বিদ্যাও শেষে এআই প্রযুক্তির খপ্পরে!

Jamuna Electronics

Logo

সম্পাদক : আবদুল হাই শিকদার

প্রকাশক : সালমা ইসলাম