اگر دنبال یادگیری یه مهارت پرکاربرد در حوزه هوش مصنوعی و پردازش زبان طبیعی هستید، این دوره میتونه نقطه شروع خوبی باشه. ترنسفورمرها این روزها تو خیلی از پروژههای یادگیری ماشین استفاده میشن، از چتباتهای هوشمند گرفته تا سیستمهای ترجمه خودکار.
چی یاد میگیری...
چرا این دوره رو انتخاب کنم؟
اگر دنبال یادگیری یه مهارت پرکاربرد در حوزه هوش مصنوعی و پردازش زبان طبیعی هستید، این دوره میتونه نقطه شروع خوبی باشه. ترنسفورمرها این روزها تو خیلی از پروژههای یادگیری ماشین استفاده میشن، از چتباتهای هوشمند گرفته تا سیستمهای ترجمه خودکار.
چی یاد میگیریم؟
کار با کتابخانه Huggingface و فریمورک Pytorch
پیادهسازی مدلهای طبقهبندی متن
ساخت مدل تشخیص موجودیتهای نامدار (NER)
تکنیکهای تولید و خلاصهسازی متن
آشنایی با معماری داخلی ترنسفورمرها
سرفصلهای اصلی
فصل ۱: آشنایی با Pipelines
- اجرای مدلهای ازپیشآموزشدیده بدون نیاز به کدنویسی پیچیده
فصل ۲: طبقهبندی متن
- فیلتر کردن نظرات مثبت و منفی
- تشخیص موضوع متون
فصل ۳: آناتومی ترنسفورمرها
- بررسی لایههای توجه (Attention Layers)
- مکانیسم Positional Encoding
فصل ۴: تشخیص موجودیتهای نامدار (NER)
- استخراج اسامی افراد، مکانها و سازمانها از متن
فصل ۵: تولید متن
- تنظیم پارامترهای دما (Temperature) برای کنترل خلاقیت مدل
فصل ۶: خلاصهسازی متون
- ارزیابی کیفیت خلاصه با معیار ROUGE
این دوره برای چه کسانی مناسبه؟
✅ دانشجوهای رشتههای کامپیوتر و هوش مصنوعی
✅ برنامهنویسهایی که میخوان وارد حوزه NLP بشن
✅ محققان نیازمند پیادهسازی مدلهای زبانی
✅ علاقهمندان به پروژههای پردازش متن
جزئیات فنی دوره
مشخصات
توضیحات
پیشنیاز
آشنایی مقدماتی با پایتون
مدت زمان
۶ ساعت آموزش ویدیویی
مدرس
حسن بنارضوی (۷ سال سابقه در هوش مصنوعی)
ابزارها
Pytorch + Huggingface
وضعیت قیمت
دارای تخفیف ویژه
یه نکته جالب: Vision Transformerها که برای پردازش تصویر استفاده میشن، هم از همین معماری ترنسفورمرها کمک میگیرن! یعنی چیزی که اینجا یاد میگیرید، پایه کار خیلی از سیستمهای پیشرفته بینایی ماشینه.