پیشرفته شدن هوش مصنوعی چقدر خطر دارد؟

EN
خط ویژه: ۸۳۸۷۰
  • تکنولوژی
  • نجوم و فضا
  • فیزیک
  • فن‌آوری اطلاعات
  • سلامت
  • زمین
  • جانوران و گیاهان
  • انسان
  • زندگی
  • تاریخ
  • خودرو
  • آموزش
  • روانشناسی
  • منابع و مراکز علمی
  • پیشرفته شدن هوش مصنوعی چقدر خطر دارد؟

     
    مجله علمی ایلیاد - از مشهورترین نمونه‌های هوش مصنوعی می‌توان به «سیری» و «الکسا» اشاره کرد که به صدای انسان گوش می‌دهند، واژه‌ها را تشخیص می‌دهند، عمل جستجو را انجام داده و نتایج متن را به گفتار، ترجمه می‌کنند. اما این دو و سایر فناوری‌های هوش مصنوعی باعث مطرح شدن مسائل مهمی می‌شوند؛ مثل حریم خصوصی افراد و اینکه آیا ماشین‌ها می‌توانند تصمیم‌های منصفانه‌ای بگیرند یا خیر؟

    همچنانکه کنگره‌ی آمریکا در حال بررسی این نکته است که آیا قوانینی را در راستای چگونگی کارکرد سیستم‌های هوش مصنوعی در جامعه وضع کند یا خیر، یکی از کمیته‌های حاضر در کنگره بر نگرانی‌هایی که پیرامون انواعی از الگوریتم‌های هوش مصنوعی وجود دارد، تاکید کرد. به‌ویژه الگوریتم‌هایی که توانایی انجام کارهای دشوار و پیچیده را دارند.

    قابلیت‌های این گونه وسیله‌ها با همه‌ی ماشین‌های هوش مصنوعی عمومی فرق دارد. از نمونه‌های دیگر این وسیله‌ها، می‌توان به «AlphaGo» و یک وسیله‌ی پزشکی به نام «OsteoDetect» اشاره کرد؛ AlphaGo برنامه‌ای کامپیوتری است که اخیراً انسان را در بازی فکری سنتی «Go» شکست داد. OsteoDetect از هوش مصنوعی برای کمک به پزشکان در راستای شناسایی شکستگی‌های دست مورد استفاده قرار می‌گیرد.

    من به عنوان معلم و مشاور آن دسته از دانشجویانی که درباره‌ی نظارت قانونی بر فناوری‌های نوظهور تحقیق می‌کنند، گزارش کنگره را نشانه‌ی مثبتی از حرکت قانونگذاران آمریکا در کنترل چالش‌هایی می‌دانم که فناوری‌های هوش مصنوعی به همراه می‌آورند. قبل از اقدام برای وضع قوانین نظارتی، مسئولان و عموم مردم باید به خوبی اثرات هوش مصنوعی بر افراد و جامعه را درک کنند. بر اساس اطلاعات جمع‌آوری شده در یک سری بررسی، پیرامون هوش مصنوعی در سال ۲۰۱۸، بر این نکته تاکید شد که آمریکا در توسعه‌ی هوش مصنوعی دست بالا را ندارد و نمی‌تواند در این زمینه به عنوان رهبری جهانی شناخته شود. این امر در روند گسترده‌تری هم به وقوع پیوسته است. از اوایل دهه‌ی ۲۰۰۰ میلادی، اعطای کمک مالی در آمریکا، برای انجام تحقیقات علمی رو به کاهش گذاشته است. در عوض، کشورهایی مثل چین و روسیه به میزان بیشتری در توسعه‌ی فناوری‌های هوش مصنوعی سرمایه‌گذاری کرده‌اند.

    همان طور که نگرانی‌های اخیر درباره‌ی دخالت کشور روسیه در انتخابات اخیر آمریکا و اروپا مطرح شد، توسعه‌ی فناوری‌های پیچیده‌تر نیز نگرانی‌هایی را درباره‌ی امنیت و حریم خصوصی شهروندان آمریکایی به پیش کشیده است. سیستم‌های هوش مصنوعی، اکنون می‌توانند برای دسترسی به اطلاعات شخصی مورد استفاده قرار بگیرند، پهپادها را هدایت کنند و سیستم‌های مراقبت و پایش را کارآمدتر از گذشته نمایند. روی هم رفته، هوش مصنوعی می‌تواند ابزارهای جدید و پیشرفته‌تری در اختیار دولت‌ها و شرکت‌ها قرار دهد تا کاربران را مورد نظارت قرار داده و از اطلاعات کاربران جاسوسی کنند. اگرچه توسعه و پیشرفت هوش مصنوعی هنوز در مراحل ابتدایی خود قرار دارد، اما می‌توان در حال حاضر هم از الگوریتم‌ها برای گمراه کردن خوانندگان، کاربران شبکه‌های اجتماعی و حتی عموم مردم، استفاده کرد.

    البته به مانند بسیاری دیگر از فناوری‌ها، از الگوریتم یکسانی می‌توان هم برای اهداف شرورانه و هم مفید استفاده کرد. برای مثال، برنامه لب خوانی هوش مصنوعی با نام «LipNet» که در دانشگاه آکسفورد ساخته شده است، از نرخ درستی ۹۳.۴ درصدی بهره می برد. این مقدار بسیار فراتر از بهترین عملکرد انسان‌هایی است که لب خوانی می‌کنند. نرخ درستی انسان‌ها در عمل لب خوانی بین ۲۰ الی ۶۰ درصد است. این خبر برای افرادی که از اختلالات شنوایی و گفتاری رنج می برند، خوب است. در ضمن، این برنامه می‌تواند برای اهداف نظارتی گسترده یا حتی نظارت بر افراد خاصی مورد استفاده قرار بگیرد.

    شاید برخی کاربردهای هوش مصنوعی هنوز به خوبی شفاف سازی نشده باشد، حتی برای افرادی که از این فناوری استفاده می‌کنند. اخیراً، افراد از جهت‌گیری موجود در داده‌هایی که برنامه‌های هوش مصنوعی را تقویت می‌کنند، آگاه شده‌اند. در واقعیت، الگوریتم‌های ساخته‌ی انسان، از داده‌های ناقص برای اتخاذ تصمیم استفاده می‌کنند؛ به طوری که جهت‌گیری انسان بازتاب داده می‌شود. نکته‌ی حائز اهمیت این است که تصمیم کامپیوتر شاید منصفانه‌تر از تصمیمِ اتخاذ شده توسط انسان باشد. برای مثال، برخی دادگاه‌ها از برنامه‌ی «COMPAS» برای تصمیم بر سر اینکه متهمان جرایم را با قید وثیقه یا ضمان آزاد کنند یا خیر، استفاده می‌کنند.

    با این حال، شواهد نشان می‌دهد که این برنامه نسبت به متهمان سیاهپوست با جهت‌گیری و تعصب عمل می‌کند. فناوری‌های پیش‌بینی کننده از این دست به طرز فزاینده‌ای در حال گسترش هستند. بانک‌ها از این نوع برنامه‌ها برای تعیین اینکه چه کسی وام بگیرد، استفاده می‌کنند. در اکثر موارد، این برنامه‌ها فقط بر جهت‌گیری‌ها و عقاید متعصبانه دامن می‌زنند، تا اینکه آن‌را از بین ببرند.

    همان‌طور که قانونگذاران شروع به بررسی پتانسیل بالقوه هوش مصنوعی کرده‌اند، باید در پرهیز از نوآوری خفقان‌آور جانب احتیاط را رعایت کنند. از دیدگاه من، کنگره‌ی آمریکا در این راستا تصمیم درستی را انتخاب کرده است. در گزارش کنگره، سرمایه‌گذاری بیشتر در زمینه‌ی هوش مصنوعی و پشتیبانی مالی از آژانس‌های بیشتر، از ناسا گرفته تا موسسه‌ی ملی سلامت، مورد تاکید قرار گرفته است. همچنین این گزارش به قانونگذاران هشدار می‌دهد تا از اتخاذ تصمیم‌های عجولانه پرهیز کنند. همچنین، تاکید بر این است که قانونگذاران نباید موانع مقرراتی زیادی را در مقابل فناوری‌هایِ در حال پیشرفت قرار دهند.

    نکته‌ی مهم‌تر اینکه، به اعتقاد من، مردم باید قواعد فکری فراتر از متریک‌هایی ببرند که می‌گویند برنامه‌های هوش مصنوعی بسیار قدرتمند و کاربردی بوده و باعث صرفه‌جویی در زمان می‌شوند. همزمان که فناوری در حال برداشتن گام‌های بلند رو به جلو است، مردم باید مباحث وسیع‌تری را درباره‌ی چگونگی حذف یا تقلیل جهت‌گیری داده‌ها مطرح کنند.
     
    نوشته: آنا سانتوس راشمن
    ترجمه: منصور نقی‌لو - مجله علمی ایلیاد
    مطالب پیشنهادی
    مشاوره رایگان اخذ پذیرش و ویزای تحصیلی از دانشگاه های استرالیا،آمریکا،کانادا،انگلستان ، نیوزیلند و مالزی
    در صورتی که مایلید شرایط شما جهت ادامه تحصیل در دانشگاه های خارج از کشور، توسط مشاورین باتجربه و متخصص موسسه «ایلیاد بین‌الملل» ارزشیابی گردد، فرم مشاوره زیر را تکمیل نمایید. پس از دریافت اطلاعات، حداکثر طی دو روز کاری با شما تماس خواهیم گرفت. قابل توجه است که موسسه ایلیاد بین‌الملل دارای مجوز اعزام دانشجو از وزارت علوم ایران می‌باشند.