یادگیری عمیق

این مقاله عیناً از سایت بوته  که خروجی یکی از پروژه های درس هوش مصنوعی سال ۹۳ دانشگاه علم و صنعت توسط آقای رامین فهمیی  برداشته شده است. لازم به ذکر است که سایت بوته به همت گروه سبحه به عنوان ارزیابی جمعی پروژه های درسی ایجاد شده است. سایر پروژه های پردازش متن فارسی (مانند هضم و باز )و کتابخانه های پایتونی که به رایگان توسط این گروه منتشر شده است نیز جای تقدیر و تشکر دارد.

عنوان این مقاله ‘یادگیری عمیق’ می باشد که از

نقش کلان داده در تغییر معادلات کسب‌وکار

مترجم: فريبا وليزاده
منبع: wsj
حجم فراوانی از اطلاعات در اختیار همه ماست و کسب‌وکارها هم هر لحظه در پی بهره‌جویی از این اطلاعات هستند.
کارشناسان از این پدیده تحت عنوان کلان داده یاد می‌کنند. شاید تعریف آن کمی پیچیده به‌نظر آید، اما می‌توان به اختصار گفت: شرکت‌ها در قیاس با گذشته امروزه به اطلاعات فراوانی دسترسی دارند که سر منشأ آنها منابع اطلاعاتی متفاوت است، شما به‌عنوان کاربر تقریبا به محض تولید این اطلاعات قادر به دسترسی و استفاده از آنها هستید.
کلان داده اغلب با کسب‌وکارهایی پیوند

معرفی سایت Kaggle – برگزاری مسابقات پردازش داده

به عنوان یکی از علاقه مندان حوزه پردازش و تحلیل داده ، اخیراً با سایت جالبی به نام Kaggle برخورد کردم که مجموعه داده هایی را در اختیار کاربران گذاشته و مسائلی در حوزه تحلیل داده راجع به آن داده ها مطرح می کند.

هر تیم شرکت کننده در بازه زمانی معین باید برنامه یا الگوریتم بهینه مورد نظر برای رسیدن به هدف تعیین شده را ارائه کند و جایزه که گاهاً چندین هزار دلار است به بهترین جواب می رسد. دسته ای از این مسائل هم منجر به استخدام تیم های برتر می شود.

مثالهایی از این دست :

هادوپ چیست

هادوپ یک چارچوب برنامه‌نویسیِ رایگان و مبتنی بر جاوا است که ما را در پردازش مجموعه‌های عظیمی از داده‌ها در یک محیط پردازش توزیعی پشتیبانی می‌کند. هادوپ بخشی از پروژه آپاچی است که بنیاد نرم‌افزار آپاچی آن را حمایت می‌کند. هادوپ این امکان را در اختیار ما قرار می‌دهد تا اپلیکیشن‌هایی را روی سیستم‌هایی مجهز به هزاران نود (node ) و حاوی هزاران ترابایت داده به اجرا درآوریم. سیستم فایل توزیعی هادوپ این امکان را فراهم می‌آورد تا سرعت انتقال داده‌ها در میان نودها افزایش یابد و سیستم بتواند در صورت

آموزش بیگ دیتا

توضیحات : در دوره آموزشی Introduction to Big Data Training متخصص Vladimir Bacvanski به شما Big Data  اصطلاحا (داده عظیم) – Hadoop و NoSQL و تکنولوژی های مرتبط را آموزش می دهد . این دوره فوق العاده برای تازه کاران طراحی شده است پس هیچ جای نگرانی وجود ندارد . در ابتدا با مباحثی همچون Big Data و چگونگی پردازش آن با MapReduce و Hadoop توضیح داده می شود . سپس Vladimir به شما چند روش برای برنامه نویسی برای اپلیکیشن های Big Data را آموزش می دهد همچنین به شما اکو سیستم Hadoop را آموزش می دهد . این دوره

HDFS چیست

HDFS یکی از کلیدی ترین قسمت های Hadoop است که به توسعه دهندگان اجازه می دهد که یک سیستم بر پایه Hadoop را به هزاران node (سرور) scale کنند، با استفاده از HDFS است که داده ها امکان این را پیدا می کنند که به قسمت های کوچکتر شکسته شوند و برروی هزاران node (سرور) Hadoop پخش شوند و scalability سیستم بالا رود.

HDFS فايل سيستمي است كه از فايل سيستم  Google File System ) GFS ) گرفته شده است . اين فايل سيستم توسط زبان برنامه نويسي  Java نوشته شده است و ذخيره سازی و بازيابی داده ها ، ايجاد امنيت داده ها

هدوپ چيست؟

هدوپ يك پروژه مبتني بر برنامه نويسي متن باز است كه توسط سازمان نرم افزاري آپاچي ايجاد شده است. ايده اوليه هدوپ اولين بار در شركت گوگل رقم خورد اما خيلي ها باور به پياده سازي اين سيستم نداشتن و در چند سال اول اين ايده تنها بصورت تئوري مطرح بود. هدوپ امكان ذخيره سازي اطلاعات را در چندين سرور ( پي سي) با هزينه اي پايين فراهم مي آورد.
كلودرا شركتي است كه بصورت فعال در اين زمينه فعال مي باشد و بسته نرم افزاري بي نظير هدوپ را ايجاد كرده و آن را انتشار داده و پشتيباني مي كند.

Big Data چیست و چرا اهمیت دارد؟

ارتباط با ما

  • گیلان - رشت - میدان حشمت - پارک علم و فناوری گیلان - طبقه دوم  - گروه توسعه اندیشه نوین 
  • موبایل : 09117586735 (مهندس ایوبی)
  • وب سایت متن کاوی: www.tmta.ir