Tagچت

WhatsFake Pro v1.0.2 دانلود برنامه ایجاد چت های جعلی برای اندروید

WhatsFake Pro v1.0.2 دانلود برنامه ایجاد چت های جعلی برای اندروید

WhatsFake-logo

ایجاد اسکرین شات جعلی از چت ها با WhatsFake امکان پشتیبانی از سرویس چت واتس اپ عرضه شده توسط استودیوی Tiawy Studios امکان ساخت چت جعلی با هرشخصی! شاید بسیاری از اوقات در گروه ها و کانال های تلگرام دیده باشید که اسکرین شات هایی از چت هایی قرار داده اند. در بسیاری از مواقع […]

******************

WhatsFake Pro v1.0.2 دانلود برنامه ایجاد چت های جعلی برای اندروید

(image)

ایجاد اسکرین شات جعلی از چت ها با WhatsFake امکان پشتیبانی از سرویس چت واتس اپ عرضه شده توسط استودیوی Tiawy Studios امکان ساخت چت جعلی با هرشخصی! شاید بسیاری از اوقات در گروه ها و کانال های تلگرام دیده باشید که اسکرین شات هایی از چت هایی قرار داده اند. در بسیاری از مواقع […]

******************

(image)
WhatsFake Pro v1.0.2 دانلود برنامه ایجاد چت های جعلی برای اندروید

ساخت آواتار سه بعدی و چت کردن با آن از طریق برنامه Rawr

ساخت آواتار سه بعدی و چت کردن با آن از طریق برنامه Rawr

امروزه تعداد برنامه های پیام رسان مخصوص پلتفرم های مختلف از جمله آندروید و iOS کم نیست.

ساخت آواتار سه بعدی و چت کردن با آن از طریق برنامه Rawr

(image)
امروزه تعداد برنامه های پیام رسان مخصوص پلتفرم های مختلف از جمله آندروید و iOS کم نیست.
ساخت آواتار سه بعدی و چت کردن با آن از طریق برنامه Rawr

Tip Talk برنامه ای برای چت کردن با افراد مشهور

Tip Talk برنامه ای برای چت کردن با افراد مشهور

TipTalk برنامه ای است جدید که به شما اجازه چت کردن معمولی و یا ویدیو چت با افراد مشهور را می دهد.

Tip Talk برنامه ای برای چت کردن با افراد مشهور

(image)
TipTalk برنامه ای است جدید که به شما اجازه چت کردن معمولی و یا ویدیو چت با افراد مشهور را می دهد.
Tip Talk برنامه ای برای چت کردن با افراد مشهور

مایکروسافت به خاطر توئیت های اهانت آمیز چت بات تازه خود عذرخواهی کرد

مایکروسافت به خاطر توئیت های اهانت آمیز چت بات تازه خود عذرخواهی کرد

مایکروسافت امروز رسما به خاطر چت بات توئیتری خود با نام Tay از کاربران عذرخواهی کرد و در مطلبی اینطور نوشت که گروهی از کاربران با استفاده از باگی که در این برنامه وجود دارد آن را به یک سخنران منفور نظیر هیتلر تبدیل کرده اند.

پیتر لی مولف این مطلب و نایب رئیس واحد تحقیقات مایکروسافت جزئیات مربوط به آسیب پذیری های این برنامه را فاش نکرد اما ابراز نمود که جمعی از کاربران از قابلیت موسوم به «بعد از من تکرار کن» یا «repeat after me» این چت بات سوء استفاده کرده اند و موجب شده اند که Tay دیالوگ هایی بعضا نژادپرستانه و رکیک را مطرح نماید و خوشبختانه باید به اطلاع تان برسانیم که مایکروسافت این باگ را ظرف 24 ساعت رفع کرد.

آقای لی اعلام کرده که Tay دومین چت باتی است که به محیطی نظیر توئیتر وارد شده و نخستین مورد ربات پیام رسان چینی به نام Xiaolce بوده است؛ هوش مصنوعی که حالا حدودا 40 میلیون نفر کاربر دارد.

وی در مطلبی که روز گذشته منتشر کرد اعلام نمود تجربه فوق العاده XiaoIce آنها را به شگفتی وا داشت و این سوال را در ذهن مهندسان مایکروسافت به وجود آورد که آیا یک هوش مصنوعی دیگر مانند این می تواند در فرهنگی کاملا متفاوت از چین به موفقیت برسد یا خیر.

وی در ادامه اینطور گفته که: جای تعجب ندارد محیط فرهگی مورد نظر (یعنی توئیتر انگلیسی زبان) باعث شد که Tay برخی از بدترین عادات را پیدا کند و ما شدیدا به خاطر الفاظ ناخوشایندی که توسط این ربات به کار می رود عذرخواهی می کنیم.

Zoe Quinn یک توسعه دهنده بازی و از فعالان اینترنتی است که هدف جریانی تحت عنوان گیمرگیت قرار گرفت و این گروه Tay را آموزش دادند تا این خانم را با الفاظ رکیک مورد خطاب قرار دهد.

Quinn نیز روز چهار شنبه مایکروسافت را به خاطر بی کفایتی در مدیریت نرم افزار ارائه شده اش مورد سرزنش قرار داد و اینطور نوشت: سال 2016 است و اگر در جریان پروسه طراحی و مهندسی از خودتان سوال نمی کنید که این نرم افزار چطور می تواند باعث آزرده خاطر شدن کسی شود، شما شکست خورده اید.

لی نیز برای حفظ اعتبار مایکروسافت اعلام داشت که تیم توسعه دهنده این چت بات را در سناریوهای مختلفی مورد بررسی قرار دادند و تنها بعد از لایو شدنش به باگ های آن پی بردند.

وی در ادامه گفته: اگرچه ما خود را برای بسیاری سوء استفاده های مختلف از این نرم افزار آماده کرده ایم، برای این حمله خاص تدابیر خاص آماده نبودیم و همچنان به پایش و رفع باگ آن ادامه خواهیم داد.

The post appeared first on .

مایکروسافت به خاطر توئیت های اهانت آمیز چت بات تازه خود عذرخواهی کرد

(image)

مایکروسافت امروز رسما به خاطر چت بات توئیتری خود با نام Tay از کاربران عذرخواهی کرد و در مطلبی اینطور نوشت که گروهی از کاربران با استفاده از باگی که در این برنامه وجود دارد آن را به یک سخنران منفور نظیر هیتلر تبدیل کرده اند.

پیتر لی مولف این مطلب و نایب رئیس واحد تحقیقات مایکروسافت جزئیات مربوط به آسیب پذیری های این برنامه را فاش نکرد اما ابراز نمود که جمعی از کاربران از قابلیت موسوم به «بعد از من تکرار کن» یا «repeat after me» این چت بات سوء استفاده کرده اند و موجب شده اند که Tay دیالوگ هایی بعضا نژادپرستانه و رکیک را مطرح نماید و خوشبختانه باید به اطلاع تان برسانیم که مایکروسافت این باگ را ظرف 24 ساعت رفع کرد.

آقای لی اعلام کرده که Tay دومین چت باتی است که به محیطی نظیر توئیتر وارد شده و نخستین مورد ربات پیام رسان چینی به نام Xiaolce بوده است؛ هوش مصنوعی که حالا حدودا 40 میلیون نفر کاربر دارد.

وی در مطلبی که روز گذشته منتشر کرد اعلام نمود تجربه فوق العاده XiaoIce آنها را به شگفتی وا داشت و این سوال را در ذهن مهندسان مایکروسافت به وجود آورد که آیا یک هوش مصنوعی دیگر مانند این می تواند در فرهنگی کاملا متفاوت از چین به موفقیت برسد یا خیر.

وی در ادامه اینطور گفته که: جای تعجب ندارد محیط فرهگی مورد نظر (یعنی توئیتر انگلیسی زبان) باعث شد که Tay برخی از بدترین عادات را پیدا کند و ما شدیدا به خاطر الفاظ ناخوشایندی که توسط این ربات به کار می رود عذرخواهی می کنیم.

Zoe Quinn یک توسعه دهنده بازی و از فعالان اینترنتی است که هدف جریانی تحت عنوان گیمرگیت قرار گرفت و این گروه Tay را آموزش دادند تا این خانم را با الفاظ رکیک مورد خطاب قرار دهد.

Quinn نیز روز چهار شنبه مایکروسافت را به خاطر بی کفایتی در مدیریت نرم افزار ارائه شده اش مورد سرزنش قرار داد و اینطور نوشت: سال 2016 است و اگر در جریان پروسه طراحی و مهندسی از خودتان سوال نمی کنید که این نرم افزار چطور می تواند باعث آزرده خاطر شدن کسی شود، شما شکست خورده اید.

لی نیز برای حفظ اعتبار مایکروسافت اعلام داشت که تیم توسعه دهنده این چت بات را در سناریوهای مختلفی مورد بررسی قرار دادند و تنها بعد از لایو شدنش به باگ های آن پی بردند.

وی در ادامه گفته: اگرچه ما خود را برای بسیاری سوء استفاده های مختلف از این نرم افزار آماده کرده ایم، برای این حمله خاص تدابیر خاص آماده نبودیم و همچنان به پایش و رفع باگ آن ادامه خواهیم داد.

The post appeared first on .

مایکروسافت به خاطر توئیت های اهانت آمیز چت بات تازه خود عذرخواهی کرد

واتس اپ ظرفیت گروه های چت خود را به 256 نفر افزایش داد

واتس اپ ظرفیت گروه های چت خود را به 256 نفر افزایش داد


واتس اپ به تازگی محدودیت 10 نفری گروه های چت خود را به 256 نفر افزایش داده است. ادامه…

سایت استخدامی