Contact For add

Wed, Feb 21 2018 - 7:14:27 PM +06 প্রচ্ছদ >> তথ্যপ্রযুক্তি

Drones, robots, driving cars - what is the fear of artificial intelligence?ড্রোন, রোবট, চালকবিহীন গাড়ি- কৃত্রিম বুদ্ধিমত্তা নিয়ে ভয় কিসের?

ড্রোন, রোবট, চালকবিহীন গাড়ি- কৃত্রিম বুদ্ধিমত্তা নিয়ে ভয় কিসের?

হলি টাইমস রিপোর্ট :

ড্রোন পরিণত হতে পারে ক্ষেপণাস্ত্রে, ফেক বা ভুয়া ভিডিও দিয়ে বিভ্রান্ত করা হতে পারে জনমত, হতে পারে হ্যাকিং-এর মতো ঘটনাও- আর এর সবই হতে পারে কৃত্রিম বুদ্ধিমত্তার সাহায্যে, যদি সেটা চলে যায় ভুল জায়গা বা খারাপ মানুষের হাতে।ড্রোন কিম্বা রোবট দিয়ে সুনির্দিষ্ট ব্যক্তি কিম্বা এলাকায় চালানো হতে পারে সন্ত্রাসী হামলা, চালকবিহীন গাড়ি ছিনতাই করে সেটিকে নিক্ষিপ্ত করা হতে পারে দুর্ঘটনায়।আর্টিফিশিয়াল ইন্টেলিজেন্স বা কৃত্রিম বুদ্ধিমত্তা সংক্ষেপে এ আই-এর উপর একটি প্রতিবেদনে এই আশঙ্কা প্রকাশ করছেন আন্তর্জাতিক নিরাপত্তা বিশেষজ্ঞরা।

তারা হুঁশিয়ার করে দিয়ে বলছেন, এই প্রযুক্তি যদি ভ্রষ্ট-নীতির কোনো রাষ্ট্র, যারা আন্তর্জাতিক আইন কানুনের তোয়াক্কা করে না, তাদের কাছে কিম্বা অপরাধীসহ সন্ত্রাসীদের হাতে চলে যায় তাহলে তার বড় ধরনের অপব্যবহার হতে পারে।

আর একারণে এই কৃত্রিম বুদ্ধিমত্তা যখন তৈরি করা হচ্ছে তখন এর উদ্ভাবকদের একই সাথে এমন জিনিসও তৈরি করতে হবে যাতে এর অপব্যবহার না হয়, আর হলেও সেটা মোকাবেলা করা যায়- বলছেন গবেষকরা।

এই লক্ষ্যে ২৬ জন গবেষকের একটি দল তুন কিছু আইন কানুন তৈরি করার উপরেও জোর দিচ্ছেন।

তারা বলছেন:

  • নীতি-নির্ধারক ও প্রযুক্তিবিদ ও গবেষকদের এক সাথে কাজ করতে হবে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির অপব্যবহার সম্পর্কে ধারণা পেতে এবং সেটা মোকাবেলা করতে।
  • কৃত্রিম বুদ্ধিমত্তার যে শুধু ভালো প্রয়োগ নেই, এটিকে খারাপ কাজেও প্রয়োগ করা হতে পারে, সেটি উপলব্ধি করতে হবে। এই বিষয়টিকে মাথায় রেখেই গবেষক ও প্রকৌশলীদেরকে কৃত্রিম বুদ্ধিমত্তা তৈরিতে কাজ করতে হবে।
  • কম্পিউটার নিরাপত্তার মতো বিষয়, যেখানে ভালো ও খারাপ দুটো দিকই আছে, সেটা থেকে শিক্ষা নিতে হবে।
  • কৃত্রিম বুদ্ধিমত্তার অপব্যবহার বন্ধ ও প্রতিরোধের লক্ষ্যে সব পক্ষকে একসাথে সক্রিয় হতে হবে।

যুক্তরাজ্যে ক্যামব্রিজ বিশ্ববিদ্যালয়ের শাহার আভিন বিবিসিকে বলেছেন, এই প্রতিবেদনটিতে বর্তমানে যেসব কৃত্রিম বুদ্ধিমত্তার প্রযুক্তি আছে কিম্বা আগামী পাঁচ বছরে আরো যেসব প্রযুক্তি বাজারে আসতে পারে সেগুলোর ঝুঁকি তুলে ধরা হয়েছে। এতে খুব বেশি দূরের ভবিষ্যতের কৃত্রিম বুদ্ধিমত্তার উপর আলোকপাত করা হয়নি।

 

                                ভুল মানুষের হাতে পড়লে এই ড্রোনও ভয়ঙ্কর হয়ে উঠতে পারে


প্রতিবেদনটিতে বিশেষ করে যে বিষয়ে উদ্বেগ প্রকাশ করা হয়েছে সেটা হলো, কৃত্রিম বুদ্ধিমত্তাকে যখন অতিমানবীয় পর্যায়ে নিয়ে যাওয়া হচ্ছে এবং যেখানে কোনো দিক নির্দেশনা নেই।

একারণে কৃত্রিম বুদ্ধিমত্তা অদূর ভবিষ্যতে কিভাবে ভয়ংকর হয়ে উঠতে পারে তার কিছু উদাহরণ তিনি তুলে ধরেছেন:

  • আলফাগোর মতো প্রযুক্তি- গুগল ডিপমাইন্ড কৃত্রিম বুদ্ধিমত্তার এই প্রযুক্তিটি উদ্ভাবন করেছে। এটি এতো চালাক যে মানুষের বুদ্ধিকেও সে পরাস্ত করতে পারে। এই প্রযুক্তি হ্যাকারদের হাতে পড়লে তথ্য চুরি হওয়ার আশঙ্কা রয়েছে।
  • কোনো বিদ্বেষপরায়ণ কোনো ব্যক্তি ড্রোন কিনে সেটিকে মানুষের মুখ চেনার জন্যে প্রশিক্ষিত করে তুলতে পারে এবং তারপর পারে কোনো ব্যক্তিকে চিহ্নিত করে তার উপর আক্রমণ চালাতে।
  • ভুয়া ভিডিও তৈরি করে তার রাজনৈতিক অপব্যবহার হতে পারে।
  • স্পিচ সিনথেসিসের মাধ্যমে হ্যাকাররা অন্যের গলাও নকল করতে পারে।

অক্সফোর্ড বিশ্ববিদ্যালয়ে ফিউচার অফ হিউম্যানিটি ইন্সটিটিউটের মাইলস ব্রান্ডেজ বলেছেন, মানুষের, প্রতিষ্ঠানের ও রাষ্ট্রের নিরাপত্তাহীনতার ঝুঁকির চিত্র বদলে দেবে এই কৃত্রিম বুদ্ধিমত্তা। দুর্বৃত্তরা এই প্রযুক্তি ব্যবহার করতে পারে হ্যাক করার উদ্দেশ্যে, মানুষের গোপনীয়তায় হস্তক্ষেপ করা হতে পারে- নিরাপত্তার ব্যাপারে সব ধরনের ঝুঁকিই এখানে আছে।

"বেশিরভাগ কৃত্রিম বুদ্ধিমত্তার ক্ষেত্রেই দেখা গেছে এই প্রযুক্তি যে শুধু মানুষের বুদ্ধির পর্যায়ে চলে যায় তা নয়, অনেক ক্ষেত্রে এটা মানুষের বুদ্ধির সীমাকেও ছাড়িয়ে যায়," বলেন তিনি।

এ আই-এর উপর তৈরি এই প্রতিবেদনটিতে দেখা হয়েছে আগামী ১০ বছরে পৃথিবীর চেহারা কেমন হতে পারে?

এই গবেষণা প্রতিবেদনের লেখকরা বলছেন, কৃত্রিম বুদ্ধিমত্তা সবকিছু বদলে দিচ্ছে। আমরা এমন এক বিশ্বে বাস করছি যা কিনা কৃত্রিম বৃদ্ধিমত্তার অপব্যবহারের কার দিনে দিনে আরো বেশি ঝুঁকিপূর্ণ হয়ে উঠতে পারে।

১০০ পাতার এই রিপোর্টে তিনটি এলাকা চিহ্নিত করা হয়েছে- ডিজিটাল, শারীরিক ও রাজনৈতিক - এগুলোতেই কৃত্রিম বুদ্ধিমত্তার অপ্রয়োগ হতে পারে।খবর বিবিসির



Comments