مایکروسافت با انتشار اسناد به توسعه دهندگان آموزش داده است که چگونه دستیار هوش مصنوعی Copilot را به برنامه ها اضافه کنند. اگر این پروژه موفق شود، احتمالاً Copilot را در برنامه هایی که هرگز انتظارش را نداشتید خواهید دید.
طبق مستندات مایکروسافت، این شرکت توسعه دهندگان را به دنیای Copilot API معرفی کرده است. به نظر می رسد غول فناوری مستقر در ردموند می خواهد کاربردهای ابزار هوش مصنوعی جدید خود را با ارائه نسخه ابری و همچنین استفاده از تراشه های جدید قدرتمند سری اسنپدراگون X که در برخی دستگاه ها یافت می شود، گسترش دهد.
بخشی از راهنمای افزودن Copilot به برنامههای توسعهدهنده میگوید: «میتوانید از یک مدل هوش مصنوعی محلی از پیش ساخته شده استفاده کنید یا مدل خود را با استفاده از پلتفرمهایی مانند TensorFlow یا PyTorch آموزش دهید و سپس آن را از طریق OnnxRuntime به برنامه خود اضافه کنید. Windows Copilot Runtime همچنین APIهایی را برای عملکردهای مختلف از جمله تشخیص متن با OCR یا استفاده از مدل Phi Silica ارائه می دهد.
ویژگی OCR به هوش مصنوعی اجازه می دهد متن یا تصویر را روی صفحه نمایش ببیند و آن را بازتولید کند. از سوی دیگر، Phi Silica یک مدل زبان ویژه است که مایکروسافت به طور خاص برای Copilot Plus توسعه داده است. علاوه بر این، مایکروسافت در مستندات جدید خود ماهیت مدل های زبان بزرگ (LLM) و واحد پردازش عصبی (NPU) را توضیح می دهد و به توسعه دهندگان نحوه استفاده از آنها را آموزش می دهد.
احتمالاً دکمه ای به نام Copilot را در همه برنامه هایی که از Copilot API استفاده می کنند، نخواهید دید. در عوض، این امکان برای اپلیکیشن ها وجود دارد که از بخش هایی از این هوش مصنوعی مانند قابلیت تولید تصویر DALL-E 3 استفاده کنند.
البته این احتمال نیز وجود دارد که توسعه دهندگان دستیار Copilot را در برنامه های خود پیاده کنند و امکان استفاده از این هوش مصنوعی را در اختیار کاربران خود قرار دهند.