مشکلی به‌نام هوش‌مصنوعی جهت‌دار؛ مایکروسافت به‌دنبال راه‌حل آن است.

EN
خط ویژه: ۸۳۸۷۰
  • تکنولوژی
  • نجوم و فضا
  • فیزیک
  • فن‌آوری اطلاعات
  • سلامت
  • زمین
  • جانوران و گیاهان
  • انسان
  • زندگی
  • تاریخ
  • خودرو
  • آموزش
  • روانشناسی
  • منابع و مراکز علمی
  • مشکلی به‌نام هوش‌مصنوعی جهت‌دار؛ مایکروسافت به‌دنبال راه‌حل آن است.

     
    مجله علمی ایلیاد - مایکروسافت جدیدترین شرکت فناوری است که می‌خواهد بایاس الگوریتمی را از پیش رو بردارد؛ هوش‌مصنوعی که تعصبات یا دیدگاه‌های غیرمنصفانه‌ی جامعه را بازتاب می‌دهد. مایکروسافت در صدد ساخت ابزاری است که بتواند به افراد در استفاده از الگوریتم‌های هوش‌مصنوعی هشدار بدهد، چرا که شاید برخی از این الگوریتم‌ها با افراد براساس نژاد یا جنسیت آن‌ها برخورد کنند.

    مایکروسافت خود را به عنوان شرکتی معرفی کرده که هوش‌مصنوعی را به منظور نزدیک کردن افراد به یکدیگر می‌سازد و این عالی است که این شرکت به جایگاه گوگل و فیسبوک پا می‌گذارد تا ابزاری برای تشخیص هوش‌مصنوعی نامناسب و آموزش دیده‌شده ایجاد کند.

    اما الگوریتم جدید مایکروسافت برای یافتن الگوریتم‌های جهت‌دار فقط می‌تواند مشکلات موجود را یافته و بررسی کند. برای مثال، یعنی برنامه‌هایی که می‌توانند تعصب فزاینده‌ی پلیس را در پی داشته باشند، همچنان ساخته شده و مورد استفاده قرار خواهند گرفته‌اند. برای ساخت هوش‌مصنوعی که عملکرد منصفانه‌ای داشته و برای همه مفید باشد، باید جانب احتیاط و دقت را بیش از پیش رعایت کرد. یکی از راه‌های احتمالی که شرکت‌ها می‌توانند از آن برای پوششِ جهت و تعصب خود استفاده کنند، از طریق ممیزی شخص ثالث است؛ یعنی شرکت فناوری یک کارشناس خارجی را برای بررسی الگوریتم‌هایشان و جستجوی نشانه‌های تعصب در خودِ کد یا داده‌های وارد شده می‌گمارد.

    ایده‌ی ممیزی هوش‌مصنوعی که در یکی از مقاله‌های MIT مطرح شد، در جاهای دیگر مورد توجه قرار گرفته است و برخی شرکت‌های هوش‌مصنوعی بازرس‌هایی را برای بررسی کدشان استخدام کرده‌اند. اما این مستلزم آن است که هوش‌مصنوعی تا آن‌جایی ساده باشد که فرد بتواند وارد آن شده و بتواند مشکل مورد نظر را شناسایی کند. در مورد الگوریتم‌های یادگیری پیچیده، شاید چنین امری مقدور نباشد.

    پاسخ احتمالی دیگر، آموزش افرادی است که اقدام به ساخت هوش‌مصنوعی می‌کنند و بتوانند به شیوه‌ی بهتری تعصبات و عقاید خود را تشخیص دهند و آن‌ها را برای تفسیر توسط الگوریتم نگه دارند. این بدان معنا نیست که رمزگذاران قرار است خواهان ساخت ماشین‌های نژادپرست هستند. اما از آن‌جا که هرکس نوعی تعصب و پیش‌داوری دارد، دنیای فناوری از اینکه به افراد کمک کند تا دیدگاه‌های خود را به شیوه‌ی بهتری درک کنند، نفع می‌برد. این‌ها راه حل‌های عمده‌ای هستند که نیازمند تغییر نگرش در نحوه‌ی توسعه‌ی فناوری دارند، حتی در شرکت‌هایی که می‌خواهند این فیلترها را برای الگوریتم‌ها توسعه دهند، نشانه‌ی خوبی است که محققان و شرکت‌ها در حال توجه ویژه به این مسئله هستند.
     
    نوشته: دن روبیتسکی
    ترجمه: منصور نقی‌لو - مجله علمی ایلیاد
    مطالب پیشنهادی
    مشاوره رایگان اخذ پذیرش و ویزای تحصیلی از دانشگاه های استرالیا،آمریکا،کانادا،انگلستان ، نیوزیلند و مالزی
    در صورتی که مایلید شرایط شما جهت ادامه تحصیل در دانشگاه های خارج از کشور، توسط مشاورین باتجربه و متخصص موسسه «ایلیاد بین‌الملل» ارزشیابی گردد، فرم مشاوره زیر را تکمیل نمایید. پس از دریافت اطلاعات، حداکثر طی دو روز کاری با شما تماس خواهیم گرفت. قابل توجه است که موسسه ایلیاد بین‌الملل دارای مجوز اعزام دانشجو از وزارت علوم ایران می‌باشند.