কৃত্রিম বুদ্ধিমত্তা নিয়ন্ত্রণে আইন প্রণয়ন করছে ইউরোপ
কৃত্রিম বুদ্ধিমত্তা নিয়ন্ত্রণে আইন প্রণয়নের সিদ্ধান্ত নিয়েছে ইউরোপ। এরই মধ্যে ইউরোপীয় পার্লামেন্টে একটি বিল বা প্রস্তাব উত্থাপন করা হয়েছে। বিলটির ওপর শিগগিরই আলোচনা শুরু করবেন ইউরোপীয় আইনপ্রণেতারা। আলোচনা শেষ হলেই বিলটি পাসে ভোটাভুটি হবে।
প্রস্তাবিত আইনটি যুক্তরাষ্ট্র, যুক্তরাজ্য ও ইউরোপীয় ইউনিয়নের (ইইউ) মধ্যে কৃত্রিম বুদ্ধিমত্তার নিয়ন্ত্রণের ভিন্ন একটি পদ্ধতি হবে বলে আশা করা হচ্ছে। মূলত ওপেনএআই’র চ্যাটজিপিটির মতো কৃত্রিম বুদ্ধিমত্তা বটগুলোর নিয়ন্ত্রণের লক্ষ্যে এই আইন প্রণয়ন করা হচ্ছে।
আইনটি পাস হলে এটাই হবে কৃত্রিম বুদ্ধিমত্তা নিয়ন্ত্রণের প্রথম কোনো আইন। আইনটির অধীনে বেশ কিছু বিধিনিষেধ থাকবে যা না মানলে বা মানতে ব্যর্থ হলে সেই কোম্পানি বা প্রতিষ্ঠানকে জরিমানা করা হবে। যা ওই কোম্পানি বা প্রতিষ্ঠানের বার্ষিক মুনাফার ৭ শতাংশ পর্যন্ত হতে পারে।
আরও পড়ুন: মানবসভ্যতার বিলুপ্তি ঘটাতে পারে কৃত্রিম বুদ্ধিমত্তা!
সম্প্রতি বেশ কিছু এআই চ্যাটবট বাজারে এসেছে। চ্যাটজিপিটি ও অনুরূপ অন্যান্য প্রোগ্রামগুলো অবিশ্বাস্যভাবে মানুষের মতোই বিভিন্ন প্রশ্নের উত্তর দিতে পারে। তবে এগুলো অনেক ভুল তথ্যও দিতে পারে। এছাড়া আরও কিছু ঝুঁকি রয়েছে বলে মনে করছেন বিশেষজ্ঞরা।
কৃত্রিম বুদ্ধিমত্তা (এআই) নিয়ন্ত্রণে নিজে থেকেই আহবান জানাচ্ছেন এর নির্মাতারা। যেমন সম্প্রতি চ্যাটজিপিটির নির্মাতা স্যাম অল্টম্যান যুক্তরাষ্ট্রের আইন প্রণেতাদের প্রতি আহ্বান জানিয়ে তিনি বলেন, এআই কোম্পানিগুলোকে লাইসেন্স দেয়ার জন্য একটি নতুন সংস্থা গঠন হওয়া প্রয়োজন।
তবে ‘ইইউ এআই অ্যাক্ট’র নীতিমালাকে ‘অতিমাত্রায় নিয়ন্ত্রিত’ বলে মন্তব্য করেছেন স্যাম অল্টম্যান। নীতিমালা মানতে ব্যর্থ হলে ইউরোপীয় ইউনিয়ন থেকে সরে আসার বিষয়টি বিবেচনা করা হবে বলেও জানিয়েছেন চ্যাটজিপিটির নির্মাতা।
আরও পড়ুন: কৃত্রিম বুদ্ধিমত্তাসম্পন্ন চশমা উদ্ভাবন করলেন মার্কিন তরুণ
এআই কোম্পানিগুলোর বিরুদ্ধে নিজস্ব কৃত্রিম বুদ্ধিমত্তা ব্যবস্থার প্রশিক্ষণে বিভিন্ন শিল্পী, সংগীতজ্ঞ ও অভিনেতার কাজ ব্যবহারের পাশাপাশি তাদের কার্যক্রম অনুকরণের অভিযোগ উঠেছে সৃজনশীল জগতের অনেকের কাছ থেকেই।
টাইম ম্যাগাজিনের তথ্য অনুসারে, অল্টম্যানের শঙ্কার জায়গা হলো ওপেনএআই’র পক্ষে এআই অ্যাক্ট-এর কয়েকটি নিরাপত্তা ও স্বচ্ছতার প্রয়োজনীয়তা মেনে চলা প্রযুক্তিগতভাবে সম্ভব হবে না।
No comments: