Phi مجموعهای از مدلهای هوش مصنوعی متنباز است که توسط مایکروسافت توسعه یافتهاند.
Phi در حال حاضر قدرتمندترین و اقتصادیترین مدل زبان کوچک (SLM) است، با معیارهای بسیار خوب در چندزبانگی، استدلال، تولید متن/چت، کدنویسی، تصاویر، صدا و سایر سناریوها.
شما میتوانید Phi را در فضای ابری یا دستگاههای لبه پیادهسازی کنید و بهسادگی برنامههای هوش مصنوعی مولد را با قدرت محاسباتی محدود بسازید.
برای شروع استفاده از این منابع، این مراحل را دنبال کنید:
- شعبه (Fork) مخزن را انجام دهید: کلیک کنید
- مخزن را کلون کنید:
git clone https://github.com/microsoft/PhiCookBook.git - به جامعه Discord هوش مصنوعی مایکروسافت بپیوندید و با کارشناسان و توسعهدهندگان دیگر آشنا شوید
عربی | بنگالی | بلغاری | برمهای (میانمار) | چینی (سادهشده) | چینی (سنتی، هنگکنگ) | چینی (سنتی، ماکائو) | چینی (سنتی، تایوان) | کرواتی | چکی | دانمارکی | هلندی | استونیایی | فنلاندی | فرانسوی | آلمانی | یونانی | عبری | هندی | مجارستانی | اندونزیایی | ایتالیایی | ژاپنی | کانادایی | خمری | کرهای | لیتوانیایی | مالایی | مالایالام | مراتی | نپالی | نیجریهای پجدین | نروژی | فارسی (Farsi) | لهستانی | پرتغالی (برزیل) | پرتغالی (پرتغال) | پنجابی (Gurmukhi) | رومانیایی | روسی | صربی (سیریلیک) | اسلواکی | اسلوونیایی | اسپانیایی | سواحیلی | سوئدی | تاگالوگ (فیلیپینی) | تامیل | تلوگو | تایلندی | ترکی | اوکراینی | اردو | ویتنامی
ترجیح میدهید محلی کلون کنید؟
این مخزن شامل بیش از ۵۰ ترجمه زبانی است که حجم دانلود را به طور قابل توجهی افزایش میدهد. برای کلون بدون ترجمهها، از sparse checkout استفاده کنید:
Bash / macOS / Linux:
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'CMD (ویندوز):
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"این به شما همه چیز لازم برای تکمیل دوره را با دانلود بسیار سریعتر میدهد.
-
معرفی
-
استنتاج Phi در محیطهای مختلف
-
استنتاج خانواده Phi
- استنتاج Phi در iOS
- استنتاج Phi در اندروید
- استنتاج Phi در Jetson
- استنتاج Phi در رایانه هوش مصنوعی
- استنتاج Phi با چارچوب Apple MLX
- استنتاج Phi در سرور محلی
- استنتاج Phi در سرور راه دور با استفاده از جعبهابزار هوش مصنوعی
- استنتاج Phi با Rust
- استنتاج Phi-دید در محلی
- استنتاج Phi با Kaito AKS، Azure Containers (پشتیبانی رسمی)
-
ارزیابی Phi
-
RAG با جستجوی هوش مصنوعی Azure
-
نمونههای توسعه برنامه Phi
-
برنامههای متن و چت
- نمونههای Phi-4
- نمونههای Phi-3 / 3.5
- چتبات محلی در مرورگر با استفاده از Phi3، ONNX Runtime Web و WebGPU
- چت اوپنوینو
- مدل چندگانه - فی-3-مینی تعاملی و اوپنای وی ویسپر
- MLFlow - ساخت یک پوشش دهنده و استفاده از فی-3 با MLFlow
- بهینهسازی مدل - چگونه مدل Phi-3-min را برای اجرای وب ONNX با Olive بهینه کنیم
- برنامه WinUI3 با Phi-3 mini-4k-instruct-onnx -نمونه برنامه یادداشتهای چندمدل WinUI3 با هوش مصنوعی
- تنظیم دقیق و یکپارچهسازی مدلهای سفارشی Phi-3 با Prompt flow
- تنظیم دقیق و یکپارچهسازی مدلهای سفارشی Phi-3 با Prompt flow در مایکروسافت فاندری
- ارزیابی مدلهای تنظیم دقیق شده Phi-3 / Phi-3.5 در مایکروسافت فاندری با تمرکز بر اصول مسئولیتپذیری هوش مصنوعی مایکروسافت
- [📓] نمونه پیشبینی زبان Phi-3.5-mini-instruct (چینی/انگلیسی)
- چتبات RAG وبجیپییو Phi-3.5-Instruct
- استفاده از GPU ویندوز برای ایجاد راهحل Prompt flow با Phi-3.5-Instruct ONNX
- استفاده از Microsoft Phi-3.5 tflite برای ساخت برنامه اندروید
- مثال پرسش و پاسخ در داتنت با استفاده از مدل ONNX محلی Phi-3 با Microsoft.ML.OnnxRuntime
- برنامه کنسول چت داتنت با Semantic Kernel و Phi-3
-
نمونههای کد مبتنی بر SDK استنتاج Azure AI
-
نمونههای استدلال پیشرفته
-
دموها
-
نمونههای بینایی
- نمونههای Phi-4
- نمونههای Phi-3 / 3.5
- [📓]متن به متن تصویر بینایی Phi-3
- Phi-3 بینایی ONNX
- [📓]تعبیه CLIP برای بینایی Phi-3
- دمو: بازیافت Phi-3
- Phi-3-vision - دستیار زبان بصری - با Phi3-Vision و OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]نمونه چندفریم یا چندتصویر بینایی Phi-3.5
- مدل ONNX محلی Phi-3 Vision با استفاده از Microsoft.ML.OnnxRuntime .NET
- مدل ONNX محلی Phi-3 Vision با منوی مبتنی بر Microsoft.ML.OnnxRuntime .NET
-
نمونههای استدلال-بینایی
-
نمونههای ریاضی
- نمونههای Phi-4-Mini-Flash-Reasoning-Instruct دموی ریاضی با Phi-4-Mini-Flash-Reasoning-Instruct
-
نمونههای صوتی
-
نمونههای MOE
-
نمونههای فراخوانی توابع
-
نمونههای مخلوط چندرسانهای
-
-
تنظیم دقیق نمونههای Phi
- سناریوهای تنظیم دقیق
- تنظیم دقیق در مقابل RAG
- بگذارید Phi-3 به یک متخصص صنعتی تبدیل شود
- تنظیم دقیق Phi-3 با ابزار AI برای VS Code
- تنظیم دقیق Phi-3 با سرویس یادگیری ماشین Azure
- تنظیم دقیق Phi-3 با لورا
- تنظیم دقیق Phi-3 با QLora
- تنظیم دقیق Phi-3 با Microsoft Foundry
- تنظیم دقیق Phi-3 با Azure ML CLI/SDK
- تنظیم دقیق با Microsoft Olive
- آزمایشگاه عملی تنظیم دقیق با Microsoft Olive
- تنظیم دقیق Phi-3-vision با Weights and Bias
- تنظیم دقیق Phi-3 با چارچوب Apple MLX
- تنظیم دقیق Phi-3-vision (پشتیبانی رسمی)
- تنظیم دقیق Phi-3 با Kaito AKS ، کانتینرهای Azure (پشتیبانی رسمی)
- تنظیم دقیق Phi-3 و Vision 3.5
-
آزمایشگاه عملی
-
مقالات و انتشارات پژوهشی دانشگاهی
- کتابهای درسی همه چیز هستند II: گزارش فنی phi-1.5
- گزارش فنی Phi-3: یک مدل زبان بسیار توانمند به صورت محلی در تلفن شما
- گزارش فنی Phi-4
- گزارش فنی Phi-4-Mini: مدلهای زبان چندرسانهای جمعوجور اما قدرتمند از طریق مخلوط LoRAها
- بهینهسازی مدلهای زبان کوچک برای فراخوانی عملکرد درونخودرویی
- (WhyPHI) تنظیم دقیق PHI-3 برای پاسخ به سوالات چندگزینهای: روششناسی، نتایج و چالشها
- گزارش فنی استدلال Phi-4
- گزارش فنی استدلال Phi-4-mini
میتوانید بیاموزید چگونه از Microsoft Phi استفاده کنید و چگونه راهکارهای انتها به انتها را در دستگاههای سختافزاری مختلف خود بسازید. برای تجربه Phi برای خودتان، با بازی کردن با مدلها و سفارشیسازی Phi برای سناریوهای خود شروع کنید با استفاده از کاتالوگ مدل AI در Microsoft Foundry Azure اطلاعات بیشتر در شروع کار با Microsoft Foundry قابل دسترسی است.
محیط آزمایش هر مدل یک محیط آزمایش اختصاصی برای تست مدل دارد Azure AI Playground.
میتوانید بیاموزید چگونه از Microsoft Phi استفاده کنید و چگونه راهکارهای انتها به انتها را در دستگاههای سختافزاری مختلف خود بسازید. برای تجربه Phi برای خودتان، با بازی کردن با مدل و سفارشیسازی Phi برای سناریوهای خود شروع کنید با استفاده از کاتالوگ مدل GitHub اطلاعات بیشتر در شروع کار با کاتالوگ مدل GitHub موجود است.
محیط آزمایش هر مدل دارای یک محیط آزمایش اختصاصی برای تست مدل میباشد.
میتوانید مدل را در Hugging Face نیز پیدا کنید.
محیط آزمایش محیط بازی Hugging Chat
تیم ما دورههای دیگری نیز تولید میکند! نگاهی بیندازید:
مایکروسافت متعهد است به کمک به مشتریان خود برای استفاده مسئولانه از محصولات هوش مصنوعی ما، اشتراکگذاری یادگیریهایمان و ایجاد شراکتهای مبتنی بر اعتماد از طریق ابزارهایی مانند یادداشتهای شفافیت و ارزیابیهای تأثیر. بسیاری از این منابع را میتوانید در https://aka.ms/RAI بیابید. رویکرد مایکروسافت به هوش مصنوعی مسئولانه بر اصول هوش مصنوعی ما مبنی بر عدالت، قابلیت اطمینان و ایمنی، حریم خصوصی و امنیت، شمولپذیری، شفافیت و پاسخگویی استوار است.
مدلهای بزرگ زبان طبیعی، تصویر و گفتار - مانند مدلهایی که در این نمونه استفاده شدهاند - ممکن است به گونهای رفتار کنند که ناعادلانه، غیرقابل اعتماد یا توهینآمیز باشد و در نتیجه آسیبهایی به دنبال داشته باشد. لطفاً یادداشت شفافیت سرویس Azure OpenAI را برای آگاهی از ریسکها و محدودیتها مطالعه نمایید: Azure OpenAI service Transparency note. رویکرد پیشنهادی برای کاهش این ریسکها، شامل کردن یک سیستم ایمنی در معماری شما است که بتواند رفتارهای مضر را تشخیص داده و جلوگیری کند. Azure AI Content Safety یک لایه مستقل از محافظت ارائه میدهد که قادر است محتوای مضر تولیدشده توسط کاربر و هوش مصنوعی را در برنامهها و خدمات تشخیص دهد. Azure AI Content Safety شامل APIهای متن و تصویر است که به شما امکان تشخیص محتوای مضر را میدهد. در Microsoft Foundry، سرویس Content Safety به شما اجازه میدهد تا نمونه کدهای تشخیص محتوای مضر در حالتهای مختلف را مشاهده، بررسی و امتحان کنید. مستندات شروع سریع زیر، شما را در ارسال درخواستها به این سرویس راهنمایی میکند.
یکی دیگر از جنبههایی که باید در نظر گرفته شود، عملکرد کلی برنامه است. در برنامههای چندمودال و چندمدلی، عملکرد به معنی این است که سیستم همانطور که شما و کاربرانتان انتظار دارید عمل کند، از جمله عدم تولید خروجیهای مضر. ارزیابی عملکرد کلی برنامه خود با استفاده از ارزیابهای عملکرد، کیفیت، ریسک و ایمنی اهمیت دارد. همچنین شما قادر به ایجاد و ارزیابی با ارزیابهای سفارشی هستید.
شما میتوانید برنامه هوش مصنوعی خود را در محیط توسعه خود با استفاده از Azure AI Evaluation SDK ارزیابی کنید. با توجه به یک مجموعه داده تست یا هدف مشخص، خروجیهای تولیدشده توسط برنامه هوش مصنوعی مولد شما به طور کمی با ارزیابهای داخلی یا ارزیابهای سفارشی انتخابی شما اندازهگیری میشوند. برای شروع کار با Azure AI Evaluation SDK جهت ارزیابی سیستم خود، میتوانید از راهنمای شروع سریع پیروی کنید. پس از اجرای یک ارزیابی، میتوانید نتایج را در Microsoft Foundry مشاهده کنید.
این پروژه ممکن است حاوی علائم تجاری یا لوگوهایی برای پروژهها، محصولات یا خدمات باشد. استفاده مجاز از علائم تجاری یا لوگوهای مایکروسافت مشروط به رعایت راهنمای علائم تجاری و برند مایکروسافت است. استفاده از علائم تجاری یا لوگوهای مایکروسافت در نسخههای تغییر یافته این پروژه نباید موجب سردرگمی شود یا حمایت مایکروسافت را القا کند. هرگونه استفاده از علائم تجاری یا لوگوهای طرف سوم تابع سیاستهای آن طرفهای سوم است.
اگر به مشکل برخوردید یا سوالی درباره ساخت برنامههای هوش مصنوعی دارید، بپیوندید به:
اگر بازخورد محصول یا خطا هنگام ساخت داشتید، به مراجعه کنید:
توضیح مهم:
این سند با استفاده از سرویس ترجمه هوش مصنوعی Co-op Translator ترجمه شده است. در حالی که ما در تلاش برای دقت هستیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حیاتی، ترجمه حرفهای انسانی توصیه میشود. ما مسئول هیچ گونه سوءتفاهم یا تفسیر نادرستی که از استفاده این ترجمه ناشی شود، نیستیم.
