اتاوا آخرین شهری است که برای پیش بینی بی خانمانی مزمن به هوش مصنوعی روی آورده است


از آنجایی که شهرها به طور فزاینده ای به هوش مصنوعی روی می آورند، برخی از طرفداران نگرانی هایی را در مورد حفظ حریم خصوصی و سوگیری مطرح کرده اند. اما کسانی که پشت این پروژه هستند اصرار دارند که این فقط یک ابزار برای کمک به شناسایی افرادی است که ممکن است به کمک نیاز داشته باشند.

محتوای مقاله

شما چند سال دارید؟ جنسیت شما چیست؟ آیا شما بومی هستید؟ آیا شهروند کانادا هستید؟ آیا تو خانواده داری؟

این تنها بخشی از داده هایی است که یک سیستم هوش مصنوعی جدید برای تعیین اینکه آیا ممکن است فردی در خطر بی خانمانی مزمن در اتاوا باشد یا خیر، به لطف تیمی با یک محقق دانشگاه کارلتون استفاده می کند.

پایتخت کشور اولین شهرداری نیست که از فناوری نوظهور به عنوان ابزاری برای کاهش بحران بدتر استفاده می کند – لندن، انتاریو قبلاً پروژه مشابهی را پیشگام کرده بود، در حالی که کالیفرنیا، لس آنجلس ابتکاری دارد که افراد در معرض خطر بی خانمان ماندن را شناسایی می کند.

تبلیغات 2

محتوای مقاله

از آنجایی که شهرها به طور فزاینده ای به هوش مصنوعی روی می آورند، برخی از طرفداران نگرانی هایی را در مورد حفظ حریم خصوصی و سوگیری مطرح کرده اند. اما کسانی که پشت این پروژه هستند اصرار دارند که این فقط یک ابزار برای کمک به شناسایی افرادی است که ممکن است به کمک نیاز داشته باشند.

محقق توسعه دهنده پروژه اتاوا، مجید کمیلی، گفت که این سیستم از داده های شخصی مانند سن، جنسیت، افراد بومی، وضعیت شهروندی و اینکه آیا فرد دارای خانواده ثبت شده است یا خیر استفاده می کند.

همچنین به عواملی مانند تعداد دفعاتی که ممکن است خدمات سرپناه رد شده باشد و دلایل دریافت خدمات مورد بررسی قرار می‌گیرد.

این سیستم همچنین از داده های خارجی مانند اطلاعات آب و هوا و شاخص های اقتصادی مانند شاخص قیمت مصرف کننده و نرخ بیکاری استفاده خواهد کرد. کامیلی گفت که این سیستم پیش بینی می کند که یک فرد از شش ماه بعد چند شب در این پناهگاه بماند.

“این ابزاری در جعبه ابزار ارائه دهندگان خدمات خواهد بود و اطمینان می دهد که هیچ کس به دلیل (یک) خطای انسانی از بین نمی رود. هر کسی تصمیم نهایی را بگیرد انسان باقی خواهد ماند.»

رنه سیبر، دانشیار دانشگاه مک گیل، می‌گوید: این اطلاعات در وهله اول در دسترس است، زیرا افراد در حال حاضر برای دریافت مزایا یا درمان‌های مختلف «به‌شدت ردیابی» شده‌اند.

تبلیغات 3

محتوای مقاله

سیبر گفت: «متاسفانه افراد بی خانمان به طرز باورنکردنی تحت نظارت هستند و داده ها بسیار قانع کننده است.

داده ها ممکن است شامل جزئیات معاینات پزشکی، اعتیاد به مواد مخدر، عود بیماری و وضعیت HIV باشد.

سیبر گفت این مهم است که بپرسیم آیا فناوری هوش مصنوعی واقعا ضروری است یا خیر. “آیا درباره بی خانمانی مزمن با هوش مصنوعی بیشتر از صفحه گسترده می دانید؟”

تیم ریشتر، رئیس ائتلاف کانادایی برای پایان دادن به بی خانمانی، پیشنهاد کرد که تا زمانی که هوش مصنوعی وارد عمل شود، زمان زیادی بود.

او گفت، اگرچه به طور گسترده مورد استفاده قرار نمی گیرد، چنین ابزارهایی “تا حدی احتمالاً می توانند پیش بینی کنند که چه کسی بیشتر در معرض بی خانمانی یا بی خانمانی مزمن است.” استفاده از هوش مصنوعی برای این کار می تواند برای مداخلات هدفمند برای مردم بسیار مفید باشد.

ریشتر گفت که اکثر مکان ها داده های کافی برای ایجاد چنین سیستم هایی ندارند.

سازمان او در حال همکاری با شهرهای سراسر کشور، از جمله لندن و اتاوا، برای کمک به جمع‌آوری اطلاعات «در زمان واقعی، ویژه افراد» است – «به نحوی که از حریم خصوصی آنها محافظت شود».

بی خانمانی مزمن به این معناست که یک فرد بیش از شش ماه بی خانمان بوده یا دوره های مکرر بی خانمانی را در آن بازه زمانی تجربه کرده است.

تبلیغات 4

محتوای مقاله

ریشتر گفت، اگرچه 85 درصد از مردم به سرعت از بی خانمان ها نقل مکان می کنند و از آن خارج می شوند، حدود 15 تا 20 درصد “گیر می کنند”.

ریشتر گفت که سیستم‌های هوش مصنوعی باید بتوانند کار خود را انجام دهند و افرادی را که در معرض خطر هستند با نگاه کردن به داده‌های انبوه در سطح جامعه و بدون دانستن هویت خاص فرد درگیر، پرچم‌گذاری کنند.

این رویکردی است که توسط پروژه اتاوا اتخاذ شده است. اطلاعات قابل شناسایی مانند نام و اطلاعات تماس با کد جایگزین می شود.

یک لیست اصلی وجود دارد که شامل روابط بین کدهای شناسه و هویت کاربر است. آموزش و آزمایش هوش مصنوعی تنها بر روی مجموعه داده کدگذاری شده کار می کند. لیست اصلی به طور جداگانه در یک سرور امن با دسترسی محدود ذخیره می شود.

وی خاطرنشان کرد که این سیستم از داده هایی استفاده می کند که قبلاً در سال های گذشته جمع آوری شده است و به طور خاص برای استفاده از هوش مصنوعی جمع آوری نشده است.

وین نگوین، مدیر سیاست اجتماعی، تحقیق و تحلیل شهر اتاوا، در بیانیه ای گفت که هرگونه اشتراک گذاری داده های جمع آوری شده توسط شهر “از طریق بررسی و راستی آزمایی داخلی دقیق انجام می شود.”

او گفت: «داده‌هایی که ما به اشتراک می‌گذاریم اغلب تجمیع می‌شوند و در مواردی که این امکان وجود ندارد، تمام اطلاعات قابل شناسایی برای اطمینان از ناشناس ماندن دقیق کاربران حذف می‌شوند.» وی افزود که همکاری‌ها با دانشگاه‌ها باید قبل از کار با داده‌ها توسط یک هیئت اخلاق بررسی شود.

تبلیغات 5

محتوای مقاله

نگوین گفت که شهر در حال حاضر در حال انجام “تست و اعتبارسنجی داخلی” است و قصد دارد قبل از اجرای این مدل با بخش پناهگاه و مشتریان مشورت کند و مشاوره‌هایی برای اواخر پاییز برنامه ریزی شده است.

آلینا ترنر، یکی از بنیانگذاران HelpSeeker، شرکتی که از هوش مصنوعی در محصولاتی که مسائل اجتماعی را مورد توجه قرار می‌دهند، گفت که «ابر قدرت‌های» هوش مصنوعی می‌تواند در تحلیل جامع عوامل و روندهایی که به بی خانمانی دامن می‌زند، مفید باشد.

او گفت، اما شرکت او آگاهانه انتخاب کرده است تا از پیش‌بینی ریسک در سطح فردی دور بماند.

او گفت: “شما می توانید در این زمینه با سوگیری با مشکلات زیادی مواجه شوید.”، او خاطرنشان کرد که داده ها بین جوامع مختلف متفاوت است و “سوگیری نژادی این داده ها نیز یک چالش بزرگ است.”

مشکلی که مدت‌ها در مورد هوش مصنوعی شناخته شده است این است که تجزیه و تحلیل آن فقط به اندازه داده‌هایی است که آن را تغذیه می‌کند. این بدان معناست که وقتی داده‌ها از جامعه‌ای می‌آیند که نژادپرستی سیستمی در سیستم‌های آن تعبیه شده است، پیش‌بینی‌های هوش مصنوعی می‌توانند آن را تداوم بخشند.

به عنوان مثال، به دلیل عوامل سیستمیک، افراد بومی بیشتر در معرض خطر بی خانمانی هستند.

ترنر استدلال می‌کند که اگر یک سیستم هوش مصنوعی پس از ورود به پناهگاه و شناسایی خود به‌عنوان بومی، به‌طور خودکار امتیاز بالاتری به او می‌دهد، «مسائل اخلاقی زیادی در این رویکرد وجود دارد».

تبلیغات 6

محتوای مقاله

کومیلی، محقق اتاوا، گفت که تعصب “یک مشکل شناخته شده در مورد محصولات مجهز به هوش مصنوعی مانند این است.” وی خاطرنشان کرد: افراد نیز تعصباتی دارند و افراد مختلف ممکن است توصیه های متفاوتی داشته باشند.

یکی از مزایای رویکرد مبتنی بر هوش مصنوعی این است که وقتی به عنوان ابزار کمکی در جعبه ابزار متخصصان انسانی استفاده می شود، می تواند به آنها کمک کند تا با یک رویکرد استاندارد همگرا شوند. چنین ابزار کمکی به متخصصان انسانی کمک می کند تا جزئیات مهم را از دست ندهند و می توانند احتمال خطای انسانی را کاهش دهند.

لوک استارک، استادیار دانشگاه وسترن، روی پروژه ای کار می کند که استفاده از داده ها و هوش مصنوعی را برای سیاست بی خانمانی در کانادا مطالعه می کند، از جمله ابتکار عمل هوش مصنوعی موجود در لندن، انتاریو.

او گفت موضوع دیگری که تصمیم گیرندگان باید در مورد آن فکر کنند این است که چگونه پیش بینی ها می تواند منجر به نادیده گرفتن بخش های خاصی از جمعیت بی خانمان شود.

او خاطرنشان کرد که زنان بیشتر به دلایل ایمنی از پناهگاه ها اجتناب می کنند و بیشتر به گزینه هایی مانند موج سواری روی کاناپه روی می آورند.

یک سیستم هوش مصنوعی که از داده‌های سیستم پناهگاه استفاده می‌کند، روی «نوع افرادی که قبلاً از سیستم سرپناه استفاده می‌کنند… و تعداد زیادی از افراد را از دست می‌دهد» تمرکز می‌کند.

استارک سیستم‌های پیش‌بینی را به‌عنوان جدیدترین فناوری توصیف می‌کند که خطر پنهان کردن دلایل اصلی بی‌خانمانی را دارد.

او گفت: «یک نگرانی ما این است که این همه توجه به این راه‌حل‌های مبتنی بر تریاژ فشار را از روی سیاست‌گذاران می‌برد تا در وهله اول به این دلایل ساختاری بی‌خانمانی نگاه کنند.»

همانطور که ریشتر گفت: “در نهایت، کلید پایان دادن به بی خانمانی مسکن است.”

توسط ویراستاران توصیه شده است

محتوای مقاله

دیدگاهتان را بنویسید