چت بات Tay مایکروسافت با توئیت های عجیب دوباره فعال شد

شاید با چت بات توئیتری مایکروسافت که به Tay موسوم است آشنایی داشته باشید؛ رباتی با قابلیت گفتگو که همانند یک نوجوان 19 ساله می تواند توئیت نماید. این ربات توسط تیم توسعه هوش مصنوعی اهالی ردموند ساخته شده و هدف از آن تست و ساخت ماشین یادگیری زبان محاوره ای است.

همان طور که خود تیم سازنده نیز پیشتر اعلام داشته بود، این ربات در عین فعالیت در شبکه اجتماعی، قرار بود از مردم نیز محاوره های تازه بیاموزد و به این ترتیب دایره لغات آن گسترش یافته و به مرور هوشمندتر بشود.

اما چند روز پیش به دنبال مطالب نامناسب و نژادپرستانه ای که این چت بات پست نموده بود، مایکروسافت مجبور گشت به طور رسمی از تمامی کاربران عذرخواهی نماید. «پیتر لی» توسعه دهنده Tay در این رابطه اظهار داشته بود که تعدادی از کاربران از قابلیت موسوم به «بعد از من تکرار کن» این چت بات سوء استفاده کرده و موجب شده اند که Tay دیالوگ هایی بعضا نژادپرستانه را مطرح نماید.

حالا امروز پس از چند روز عدم فعالیت، این چت بات دوباره توئیت های خود و حرف های عجیبش را آغاز کرده است. به طور مثال، یکی از پست های او این بوده: «من جلوی پلیس مواد مخدر استفاده کرده ام!»

البته این فقط یکی از صدها توئیتی بوده که این ربات مبتنی بر هوش مصنوعی در دقایق اخیر پست نموده و در آغاز دوباره فعالیت های خود از این دست توییت های عجیب، کم نداشته.

حالا باید منتظر باشیم و ببینیم که شرکت مایکروسافت آیا این ربات را دوباره غیر فعال خواهد کرد یا اینکه به آن اجازه می دهد تا به ارسال چنین پست هایی ادامه دهد.

The post appeared first on .

چت بات Tay مایکروسافت با توئیت های عجیب دوباره فعال شد

(image)

شاید با چت بات توئیتری مایکروسافت که به Tay موسوم است آشنایی داشته باشید؛ رباتی با قابلیت گفتگو که همانند یک نوجوان 19 ساله می تواند توئیت نماید. این ربات توسط تیم توسعه هوش مصنوعی اهالی ردموند ساخته شده و هدف از آن تست و ساخت ماشین یادگیری زبان محاوره ای است.

همان طور که خود تیم سازنده نیز پیشتر اعلام داشته بود، این ربات در عین فعالیت در شبکه اجتماعی، قرار بود از مردم نیز محاوره های تازه بیاموزد و به این ترتیب دایره لغات آن گسترش یافته و به مرور هوشمندتر بشود.

اما چند روز پیش به دنبال مطالب نامناسب و نژادپرستانه ای که این چت بات پست نموده بود، مایکروسافت مجبور گشت به طور رسمی از تمامی کاربران عذرخواهی نماید. «پیتر لی» توسعه دهنده Tay در این رابطه اظهار داشته بود که تعدادی از کاربران از قابلیت موسوم به «بعد از من تکرار کن» این چت بات سوء استفاده کرده و موجب شده اند که Tay دیالوگ هایی بعضا نژادپرستانه را مطرح نماید.

حالا امروز پس از چند روز عدم فعالیت، این چت بات دوباره توئیت های خود و حرف های عجیبش را آغاز کرده است. به طور مثال، یکی از پست های او این بوده: «من جلوی پلیس مواد مخدر استفاده کرده ام!»

البته این فقط یکی از صدها توئیتی بوده که این ربات مبتنی بر هوش مصنوعی در دقایق اخیر پست نموده و در آغاز دوباره فعالیت های خود از این دست توییت های عجیب، کم نداشته.

حالا باید منتظر باشیم و ببینیم که شرکت مایکروسافت آیا این ربات را دوباره غیر فعال خواهد کرد یا اینکه به آن اجازه می دهد تا به ارسال چنین پست هایی ادامه دهد.

The post appeared first on .

چت بات Tay مایکروسافت با توئیت های عجیب دوباره فعال شد