Tagمحققین دهند

با روش محققین MIT ساختمان ها پیش از وقوع حادثه هشدار می دهند

با روش محققین MIT ساختمان ها پیش از وقوع حادثه هشدار می دهند

دانشگاه تکنولوژی ماساچوست یا همان MIT به عنوان یکی از معتبرترین دانشگاه های فناوری بدون تردید برخی از باهوش ترین های این حوزه را در اختیار خود دارد، اما حالا خبر می رسد می خواهد ساختمان هوشمند تری نیز داشته باشد.

یکی از محققین MIT برای این منظور یک مدل محاسباتی توسعه داده که لرزش های محیطی (مثل عبور کامیون) را ثبت و با استفاده از آنها، میزان استرس مکانیکی یا خسارات وارده در طی زمان به ساختمان را محاسبه می کند.

این مدل محاسباتی در حال حاضر روی برج بتنی 21 طبقه ی MIT در شهر کمبریج ماساچوست مورد آزمایش قرار گرفته است، ساختمانی که در سال 1960 ساخته شده و بلندترین در شهر خود به حساب می آید.

در این روش کامپیوترها با استفاده از الگوریتم ها و نصب حسگرهای مختلف، ساختمان را به شکل مجازی شبیه سازی می کنند تا بازخورد آن را نسبت به میزان های مختلف از استرس پیشبینی نمایند.

مدل شبیه سازی شده همانطور که پیشتر اشاره کردیم تنها از نظر اندازه با ساختمان واقعی یکسان نیست و جزئیات بسیار بیشتری برای ساخت آن در نظر گرفته شده است، از جمله استحکام و تراکم دیوارهای بتنی، تخته سنگ ها، بخش های فلزی و حتی خصوصیات پله های هر طبقه.

محقق اصلی این پروژه می گوید با چنین متدی می توانیم به راحتی تمام ساختمان های شهر را هوشمند کنیم تا خودشان وضعیت سلامتی و شرایط محیطی خود را زیر نظر گرفته و از اتفاقات ناگوار پیشگیری نمایند.

بر همین اساس می توان آینده ای را پیشبینی کرد که در صورت موفقیت و گسترش استفاده از این طرح، ساختمان ها قادر باشند در صورت نیاز هشدارهای لازم برای تخلیه در شرایط اضطراری را پیش از وقوع حادثه اعلام نمایند.

The post appeared first on .

با روش محققین MIT ساختمان ها پیش از وقوع حادثه هشدار می دهند

دانشگاه تکنولوژی ماساچوست یا همان MIT به عنوان یکی از معتبرترین دانشگاه های فناوری بدون تردید برخی از باهوش ترین های این حوزه را در اختیار خود دارد، اما حالا خبر می رسد می خواهد ساختمان هوشمند تری نیز داشته باشد.

یکی از محققین MIT برای این منظور یک مدل محاسباتی توسعه داده که لرزش های محیطی (مثل عبور کامیون) را ثبت و با استفاده از آنها، میزان استرس مکانیکی یا خسارات وارده در طی زمان به ساختمان را محاسبه می کند.

این مدل محاسباتی در حال حاضر روی برج بتنی 21 طبقه ی MIT در شهر کمبریج ماساچوست مورد آزمایش قرار گرفته است، ساختمانی که در سال 1960 ساخته شده و بلندترین در شهر خود به حساب می آید.

در این روش کامپیوترها با استفاده از الگوریتم ها و نصب حسگرهای مختلف، ساختمان را به شکل مجازی شبیه سازی می کنند تا بازخورد آن را نسبت به میزان های مختلف از استرس پیشبینی نمایند.

مدل شبیه سازی شده همانطور که پیشتر اشاره کردیم تنها از نظر اندازه با ساختمان واقعی یکسان نیست و جزئیات بسیار بیشتری برای ساخت آن در نظر گرفته شده است، از جمله استحکام و تراکم دیوارهای بتنی، تخته سنگ ها، بخش های فلزی و حتی خصوصیات پله های هر طبقه.

محقق اصلی این پروژه می گوید با چنین متدی می توانیم به راحتی تمام ساختمان های شهر را هوشمند کنیم تا خودشان وضعیت سلامتی و شرایط محیطی خود را زیر نظر گرفته و از اتفاقات ناگوار پیشگیری نمایند.

بر همین اساس می توان آینده ای را پیشبینی کرد که در صورت موفقیت و گسترش استفاده از این طرح، ساختمان ها قادر باشند در صورت نیاز هشدارهای لازم برای تخلیه در شرایط اضطراری را پیش از وقوع حادثه اعلام نمایند.

The post appeared first on .

با روش محققین MIT ساختمان ها پیش از وقوع حادثه هشدار می دهند

محققین گوگل قصد دارند هوش مصنوعی را از دام تبعیض های انسانی نجات دهند

محققین گوگل قصد دارند هوش مصنوعی را از دام تبعیض های انسانی نجات دهند

ورودی زباله، خروجی زباله را در پی خواهد داشت. این اصل که به GIGO مشهور است، قانون اصلی محاسبات به شمار می رود و می گوید اگر داده های نامعتبر به سیستم وارد شود، خروجی به دست آمده نیز نامعتبر خواهد بود. سیستم های یادگیری ماشینی نیز از این قاعده مستثنی نیستند.

هوش مصنوعی پایه و ابتدایی، تنها چیزهایی را می داند که ما در اختیارش قرار می دهیم، و اگر داده های ورودی به هر شکل سودار باشند، سیستمی که بر اساس آنها آموزش می یابد نیز جهت گیری تبعیضی خواهد داشت. ظاهراً گوگل به دنبال پیشگیری از بروز این وضعیت نامطلوب است، و بدین منظور از روشی تحت عنوان «برابری فرصت» بهره می گیرد.

گوگل با الگوریتم «برابری فرصت» قصد دارد تبعیض در یادگیری ماشینی از بین ببرد

سیستم های یادگیری ماشینی اساساً موتورهای پیش بین هستند که خصیصه های مجموعه داده های مختلف را آموخته، سپس با دریافت اطلاعات جدید، آنها را در یکی از چند دسته مورد نظر جای می دهند. مثلاً سیستم تشخیص تصویر می تواند ویژگی ها و تفاوت های انواع خودرو را بشناسد و آنها را در دسته های سدان، پیکاپ، اتوبوس و غیره جای دهد.

البته در این میان، اشتباهاتی هم رخ می دهند. مثلاً هوش مصنوعی قادر به تشخیص خودروهای نه چندان معروفی همچون BRAT یا El Camino نیست، چون اطلاعات کافی در مورد آنها در اختیار ندارد، بنابراین می تواند آنها را در هر دسته ای که بخواهد جای دهد، ضمن اینکه نمی توان به دسته بندی نهایی خرده گرفت.

اگرچه اشتباه در دسته بندی خودرو چندان اهمیتی ندارد، اما وضعیتی را تصور کنید که سیستم کامپیوتری مبتنی بر هوش مصنوعی بخواهد افراد حقیقی را بر مبنای ریسک پذیری دریافت وام، دسته بندی نماید. در این عملیات، اشخاصی که با ضوابط موجود مطابقت نداشته باشند، شانس دریافت تسهیلات را از دست خواهند داد.

«مورتیز هارت» مدیر بخش Google Brain در این رابطه می گوید:

زمانی که عضویت در گروه های خاص بر اساس ویژگی های خاصی همچون نژاد، جنسیت، توانایی جسمی یا اعتقادات دینی انجام گیرد، طبیعتاً با ناداوری و تبعیض روبرو خواهیم بود. علی رغم آگاهی نسبت به این موضوع، هنوز روشی در اختیار نداریم که بتوانیم یادگیری ماشینی را از چنین بی عدالتی روی خصیصه های حساس دور نماییم.

«هارت» و همکارانش مقاله ای نوشتند که روشی را برای پیشگیری از این وضعیت پیشنهاد می دهد. در این رویکرد، زمانی که هدف مطلوبی وجود داشته، و احتمال آن برود که یکی از این خصیصه های تعریف شده برای سیستم به اشتباه، فردی را از رسیدن به آن نتیجه باز دارد، الگوریتم به گونه ای خودش را تغییر می دهد که تأثیر ویژگی مورد نظر را از بین برده و شانس دستیابی به آن هدف را به صورت مساوی بین تمامی اعضا توزیع نماید.

رویکرد جدید گوگل برای یادگیری ماشینی، توازن بین خصیصه ها را رعایت می کند.

طراحی چنین سیستمی برای کامپیوتر چندان مشکل نیست، زیرا می توان آن را به گونه ای آموزش داد که توازن بین خصیصه های مختلف رعایت گردد. البته رویکرد فوق بدین معنا نیست که داده ها را به دلخواه تغییر دهیم، اما به گفته دانشمندان این گروه تحقیقاتی، نتیجه این مدل بسیار دقیق تر از پیش بینی های قبلی خواهد بود.

اجرای این تحقیقات فوق از سوی گوگل بسیار امیدوار کننده است، و با در نظر گرفتن اینکه نقش هوش مصنوعی و یادگیری ماشینی در زندگی روزمره هر روز پررنگ تر از قبل می شود، بهتر است از محدودیت ها و ریسک های مربوط به این فناوری های نوین آگاهی بیشتری پیدا کنیم.

The post appeared first on .

محققین گوگل قصد دارند هوش مصنوعی را از دام تبعیض های انسانی نجات دهند

ورودی زباله، خروجی زباله را در پی خواهد داشت. این اصل که به GIGO مشهور است، قانون اصلی محاسبات به شمار می رود و می گوید اگر داده های نامعتبر به سیستم وارد شود، خروجی به دست آمده نیز نامعتبر خواهد بود. سیستم های یادگیری ماشینی نیز از این قاعده مستثنی نیستند.

هوش مصنوعی پایه و ابتدایی، تنها چیزهایی را می داند که ما در اختیارش قرار می دهیم، و اگر داده های ورودی به هر شکل سودار باشند، سیستمی که بر اساس آنها آموزش می یابد نیز جهت گیری تبعیضی خواهد داشت. ظاهراً گوگل به دنبال پیشگیری از بروز این وضعیت نامطلوب است، و بدین منظور از روشی تحت عنوان «برابری فرصت» بهره می گیرد.

گوگل با الگوریتم «برابری فرصت» قصد دارد تبعیض در یادگیری ماشینی از بین ببرد

سیستم های یادگیری ماشینی اساساً موتورهای پیش بین هستند که خصیصه های مجموعه داده های مختلف را آموخته، سپس با دریافت اطلاعات جدید، آنها را در یکی از چند دسته مورد نظر جای می دهند. مثلاً سیستم تشخیص تصویر می تواند ویژگی ها و تفاوت های انواع خودرو را بشناسد و آنها را در دسته های سدان، پیکاپ، اتوبوس و غیره جای دهد.

البته در این میان، اشتباهاتی هم رخ می دهند. مثلاً هوش مصنوعی قادر به تشخیص خودروهای نه چندان معروفی همچون BRAT یا El Camino نیست، چون اطلاعات کافی در مورد آنها در اختیار ندارد، بنابراین می تواند آنها را در هر دسته ای که بخواهد جای دهد، ضمن اینکه نمی توان به دسته بندی نهایی خرده گرفت.

اگرچه اشتباه در دسته بندی خودرو چندان اهمیتی ندارد، اما وضعیتی را تصور کنید که سیستم کامپیوتری مبتنی بر هوش مصنوعی بخواهد افراد حقیقی را بر مبنای ریسک پذیری دریافت وام، دسته بندی نماید. در این عملیات، اشخاصی که با ضوابط موجود مطابقت نداشته باشند، شانس دریافت تسهیلات را از دست خواهند داد.

«مورتیز هارت» مدیر بخش Google Brain در این رابطه می گوید:

زمانی که عضویت در گروه های خاص بر اساس ویژگی های خاصی همچون نژاد، جنسیت، توانایی جسمی یا اعتقادات دینی انجام گیرد، طبیعتاً با ناداوری و تبعیض روبرو خواهیم بود. علی رغم آگاهی نسبت به این موضوع، هنوز روشی در اختیار نداریم که بتوانیم یادگیری ماشینی را از چنین بی عدالتی روی خصیصه های حساس دور نماییم.

«هارت» و همکارانش مقاله ای نوشتند که روشی را برای پیشگیری از این وضعیت پیشنهاد می دهد. در این رویکرد، زمانی که هدف مطلوبی وجود داشته، و احتمال آن برود که یکی از این خصیصه های تعریف شده برای سیستم به اشتباه، فردی را از رسیدن به آن نتیجه باز دارد، الگوریتم به گونه ای خودش را تغییر می دهد که تأثیر ویژگی مورد نظر را از بین برده و شانس دستیابی به آن هدف را به صورت مساوی بین تمامی اعضا توزیع نماید.

رویکرد جدید گوگل برای یادگیری ماشینی، توازن بین خصیصه ها را رعایت می کند.

طراحی چنین سیستمی برای کامپیوتر چندان مشکل نیست، زیرا می توان آن را به گونه ای آموزش داد که توازن بین خصیصه های مختلف رعایت گردد. البته رویکرد فوق بدین معنا نیست که داده ها را به دلخواه تغییر دهیم، اما به گفته دانشمندان این گروه تحقیقاتی، نتیجه این مدل بسیار دقیق تر از پیش بینی های قبلی خواهد بود.

اجرای این تحقیقات فوق از سوی گوگل بسیار امیدوار کننده است، و با در نظر گرفتن اینکه نقش هوش مصنوعی و یادگیری ماشینی در زندگی روزمره هر روز پررنگ تر از قبل می شود، بهتر است از محدودیت ها و ریسک های مربوط به این فناوری های نوین آگاهی بیشتری پیدا کنیم.

The post appeared first on .

محققین گوگل قصد دارند هوش مصنوعی را از دام تبعیض های انسانی نجات دهند