پیام خوزستان

آخرين مطالب

آیا هوش مصنوعی نژادپرست است؟ سیاسی

آیا هوش مصنوعی نژادپرست است؟
  بزرگنمايي:

پیام خوزستان - فارس /در پس پرده‌ی کُدهایی که هوش مصنوعی را رهبری می‌کنند، چیزی در حال تکرار است؛ چیزی که حتی از انسان هم خطرناک‌تر شده. آیا حاضریم با این حقیقت روبرو شویم؟
 فرض کنید برای گرفتن وام، فقط چون پوستتان تیره است رد می‌شوید؛ یا رزومه‌تان حتی باز نمی‌شود، فقط چون زن هستید. این بار مقصر نه بانک است و نه مدیر منابع انسانی، مقصر یک هوش مصنوعی است!اگر باور دارید هوش مصنوعی بی‌طرف‌ است، این گزارش را نخوانید!
این حقیقت را با تمام وجودتان قبول کنید!
در سال‌های اخیر، بحث‌های عمومی درباره هوش مصنوعی (AI) با عباراتی چون «انقلابی در حال وقوع»، «تهدیدی جهانی» یا «فرصتی برای نجات بشر» اشباع شده‌اند.بسیاری از ما آن را به‌عنوان یک نیروی بیگانه، غیرانسانی و مستقل در نظر می‌گیریم که در حال ورود به زندگی‌مان است؛ نیرویی که سبک کار، ارتباطات و حتی درک ما از خودمان را تغییر می‌دهد.اما در میان این هیاهو، یک حقیقت کلیدی گم شده است: ما تنها تماشاگر نیستیم؛ ما خالقان این فناوری هستیم!در واقع، هر سیستم هوش مصنوعی یک آینه است؛ آینه‌ای که با دقتی بی‌رحمانه، ارزش‌ها، تعصبات و اولویت‌های ما را بازتاب می‌دهد.
بازار



هوش مصنوعی نژادپرست؟!
بیایید نگاهی به یکی از معروف‌ترین موارد بی‌عدالتی بیندازیم!در سال 2018، آمازون ابزار هوش مصنوعی خود را برای استخدام کنار گذاشت؛ چرا؟ چون این سیستم در فرآیند استخدام، متقاضیان زن را نادیده می‌گرفت!این الگوریتم عمداً جنسیت‌زده نبود. مشکل آن‌جا بود که داده‌های آموزشی‌اش شامل سوابق استخدامی شرکت در یک دهه گذشته بود.داده‌هایی که عمدتاً مردان را ترجیح می‌دادند. الگوریتم فقط یاد گرفت همان تعصبات قدیمی را بازتولید کند.اما این تنها یک مثال نیست. طبق تحقیقی از دانشگاه UC Berkeley که روی بیش از 50 میلیون درخواست وام مسکن در ایالات متحده انجام شد، الگوریتم‌های وام‌دهی اغلب به متقاضیان سیاه‌پوست و لاتین‌تبار شرایط نامطلوب‌تری پیشنهاد می‌کردند، حتی زمانی که امتیاز اعتباری آن‌ها برابر بود.این تعصب‌ها، میراثی از دهه‌ها تبعیض سیستماتیک در صنعت مالی هستند که حالا در زبان ماشین بازتعریف شده‌اند.

پیام خوزستان

الگوریتم‌هایی با چشمان بسته
در حوزه آموزش، مطالعات متعددی نشان داده‌اند که سیستم‌های نمره‌دهی خودکار، به‌ویژه آن‌هایی که با هوش مصنوعی کار می‌کنند، تمایل دارند دانش‌آموزان از طبقات اقتصادی بالا را بهتر ارزیابی کنند.مقاله‌ای در سال 2021 در مجله Journal of Educational Data Mining گزارش داد که در 45٪ موارد، الگوریتم‌ها به نوشته‌های یکسان نمره متفاوت داده‌اند، فقط به خاطر زمینه اقتصادی دانش‌آموزان.در بخش بهداشت نیز، الگوریتم‌های تشخیصی در برخی کشورها، احتمال بیشتری برای اشتباه در تشخیص بیماری در بیماران اقلیت نشان داده‌اند.مطالعه‌ای در سال 2019 در مجله «ساینس (Science)» که بر بیش از 200 میلیون بیمار در ایالات متحده تمرکز داشت، مشخص کرد که یک الگوریتم معروف به طور سیستماتیک میزان نیاز به مراقبت پزشکی را در بیماران سیاه‌پوست کمتر از واقعیت ارزیابی می‌کرد.

پیام خوزستان

چرا آینه را مقصر بدانیم وقتی صورت ماست که ترک خورده؟!
وقتی فناوری پیش‌بینی جرم، معروف به «پلیس پیش‌گو»، بیشتر تمرکز خود را روی مناطق کم‌درآمد یا دارای جمعیت اقلیت می‌گذارد، این به‌خاطر داده‌هایی است که بر مبنای سابقه‌های جرم گذشته ساخته شده‌اند.اگر جرمی در گذشته بیشتر در یک منطقه گزارش شده، الگوریتم همان را بازتولید می‌کند. در واقع، پلیس نه بر اساس آینده، بلکه بر اساس حافظه‌ای تبعیض‌آلود از گذشته عمل می‌کند.
ما چه چیزی را به مدل‌ها یاد می‌دهیم؟
هر کلیک، هر سرچ، هر انتخاب، حتی هر انصراف، به الگوریتم‌ها چیزی می‌آموزد. وقتی ما نگران نظارت دیجیتال هستیم اما با رضایت، مکان و علایق خود را به اپلیکیشن‌ها می‌دهیم، ما در حال آموزش هستیم: آموزش اینکه حریم خصوصی‌مان قابل معامله است.تحقیقی در سال 2023 در پایگاه اطلاعاتی Pew Research Center نشان می‌دهد که 61٪ از بزرگسالان آمریکایی می‌دانند که حریم خصوصی خود را در قبال خدمات رایگان از دست می‌دهند، اما همچنان به این روند ادامه می‌دهند.ما به دنبال اطلاعات درست هستیم، اما محتوای وایرال را ترجیح می‌دهیم. این تناقض‌ها، دقیقاً همان چیزی‌اند که مدل‌های هوش مصنوعی از ما می‌آموزند.
آینده‌ای انسانی یا ماشینی؟ به داده‌های شما بستگی دارد!
در حالی که غول‌های فناوری تلاش می‌کنند تا الگوریتم‌ها را «اخلاق‌محور» کنند، برخی شرکت‌ها رویکردهای تازه‌ای در پیش گرفته‌اند.برای مثال، مایکروسافت و گوگل در حال توسعه چارچوب‌هایی هستند که نه فقط الگوریتم‌ها، بلکه کیفیت و تعادل داده‌های آموزشی را نیز ارزیابی می‌کنند. این حرکات، امیدبخش‌اند؛ اما کافی نیستند.تا زمانی که AI با داده‌های انسانی آموزش ببیند، انسان هم باید خود را آموزش دهد. ما باید مسئولیت ردپای دیجیتال‌ خود را بپذیریم!اگر من ادعا کنم که به ارتباطات انسانی اهمیت می‌دهم، اما بیشتر وقتم را در شبکه‌های اجتماعی بگذرانم، الگوریتم نتیجه‌گیری درستی خواهد داشت: من ترجیح می‌دهم تنها باشم و تعاملاتم سطحی باشند. اگر بگویم به صداقت اهمیت می‌دهم اما اخبار جعلی را به اشتراک بگذارم، الگوریتم‌ها همین پیام را خواهند گرفت.
کدام‌یک از ما در آینه می‌نگرد؟
هوش مصنوعی صرفاً آینده را پیش‌بینی نمی‌کند؛ بلکه گذشته ما را بازپخش می‌کند و شخصیت ما را بازتاب می‌دهد. و این بازتاب، گاه بیش از حد شفاف و ناخوشایند است.در جهانی که به‌سرعت در حال اتکای بیشتر به الگوریتم‌هاست، شاید مهم‌ترین سؤال این نباشد که «AI چه خواهد شد»، بلکه این است که: «ما که خواهیم بود؟»

لینک کوتاه:
https://www.payamekhuzestan.ir/Fa/News/1084766/

نظرات شما

ارسال دیدگاه

Protected by FormShield
مخاطبان عزیز به اطلاع می رساند: از این پس با های لایت کردن هر واژه ای در متن خبر می توانید از امکان جستجوی آن عبارت یا واژه در ویکی پدیا و نیز آرشیو این پایگاه بهره مند شوید. این امکان برای اولین بار در پایگاه های خبری - تحلیلی گروه رسانه ای آریا برای مخاطبان عزیز ارائه می شود. امیدواریم این تحول نو در جهت دانش افزایی خوانندگان مفید باشد.

ساير مطالب

ابراز همدلی با قربانیان سانحه بندر شهید رجایی؛ چراغ های برج آزادی، برج میلاد و پل طبیعت امشب خاموش است

انصارالله حادثه بندرعباس را تسلیت گفت

رایزنی وزیران خارجه ایران و مصر

تهران قفل پس از توفان؛ سقوط درخت آزادی را بست

دو عملیات مقاومت در غزه و هلاکت چند نظامی صهیونیست

فولاد خوزستان؛ طلایه‌دار صادرات ایران زیر ضرب تحریم مستقیم آمریکا

شهردار نوشهر: از مردم آبادان انتظار بیشتری داشتم

هخامنشی‌ها سنگ‌های غول‌آسا را چگونه جابه‌جا می‌کردند؟

طلسم غیبت طولانی کاپیتان گل‌گهر شکست

ای با همه کس به صلح و با ما به خلاف

گفتگوی پزشکیان با شبکه تلویزیونی جمهوری آذربایجان؛ از روابط سیاسی تا کریدور زنگزور

پیشنهادی که می‌تواند سینماها را از شلوغی منفجر کند

همکاری جدید رامبد جوان و مهراب قاسم‌خانی پس از سال‌ها

واکنش رسانه ملی به حادثه دلخراش بندرعباس/ دریغ از یک نوار مشکی!

از پوری بنایی تا هدیه تهرانی؛ جای خالی‌تان توی ذوق می‌زند

«مارتین اسکورسیزی» با فیلم هندی به کن 2025 می آید

چهره ها/ سلفی حامد بهداد در کیش

تصاویر آهسته از لحظه پرتاب استارشیپ

پرداخت بیمه بیکاری و مستمری به کارگران و خانواده‌های متوفیان

آیا شغل شما توسط هوش مصنوعی از بین می‌رود؟

پوستکوگلو: کار را برای لیورپول سخت کردیم!

پیش‌بینی دبیر کانون صرافان ازبازار ارز

«از سرزمین بی‌پرنده تا قلعه» منتشر شد

«عشق، زن، خاورمیانه» روانه بازار کتاب شد

پیام رهبر انقلاب درپی حادثه دردناک بندرعباس: مسئولان امنیتی و قضائی هرگونه سهل‌انگاری یا تعمّد را کشف و بر طبق مقررات پیگیری کنند

نقل قول سخنگوی کمیسیون امنیت ملی مجلس از امیر ایرانی؛ اصابت قرار دادن ناوشکن زاگرس در دریای سرخ جوک قرن بود

سخنگوی کمیسیون امنیت ملی مجلس به نقل از تخت روانچی: دور بعدی مذاکرات شنبه آینده است

جلیلی: کسانی که 10 سال پیش منکر وجود مکانیسم ماشه بودند، امروز «کاسه‌ی چه‌کنم» به دست گرفته‌اند!

اهدای خون توسط عارف، عراقچی و اعضای کابینه دولت

سفیر ایران در روسیه: مسکو سه فروند هواپیما ویژه مهار آتش همراه با نیروهای امدادی به بندر شهید رجایی اعزام کرد

پیام تسلیت خانواده شهید حاج‌قاسم سلیمانی در پی حادثه بندر شهید رجایی

عراقچی، گروسی را در جریان مذاکرات قرار داد

نتانیاهو دوباره علیه قدرت هسته‌ای ایران یاوه‌گویی کرد

گفتگو پزشکیان با شبکه تلویزیون دولتی جمهوری آذربایجان

سالیوان: توافق احتمالی بین ایران و آمریکا با توافق 2015 تفاوتی ندارد

وضعیت قرمز هوا در 9 شهر ایران | هندیجان آلوده ترین شهر ایران شد

نگاهی به طرح ساماندهی تجمعات و راه‌پیمایی‌ها

کمبود ظرفیت تعویض پلاک در اندیمشک؛ مردم هفته‌ها در انتظار نوبت

فیدان: حماس توافق بر اساس راهکار دودولتی را می‌پذیرد

سقوط درخت روی دو خودرو در خیابان آزادی/ در هنگام وزش باد شدید در جای امن توقف کنید

واکنش حزب الله به حملات رژیم صهیونیستی به ضاحیه

کارگری سمبل شرافت و نان حلال است

حفظ دامنه نوسان، مقاومت در برابر تغییر یا بی‌برنامگی؟

بیانیه تند علیه حواشی آبادان: روز سیاه فوتبال!

چهره ها/ استوری غمناک امیر جعفری برای مردم بندرعباس

کودک کشی در سینمای ایران به بهانه سریال وحشی!

نمایش‌های کُمدی فردا به روی صحنه نمی‌روند

به احترام درگذشتگان بندرعباس «پایتخت 7» پخش نمی شود

بندرعباس دل هنرمندان را لرزاند

پخش یک سریال معمایی ـ پلیسی از شبکه تهران