Kit Alat Analitis intel AI untuk Linux
Maklumat Produk
Kit AI ialah kit alat yang merangkumi pelbagai persekitaran konda untuk pembelajaran mesin dan projek pembelajaran mendalam. Ia termasuk persekitaran untuk TensorFlow, PyTorch dan Intel oneCCL Bindings. Ia membolehkan pengguna mengkonfigurasi sistem mereka dengan menetapkan pembolehubah persekitaran, menggunakan Conda untuk menambah pakej, memasang pemacu grafik dan melumpuhkan hangcheck. Kit alat boleh digunakan pada Antara Muka Baris Perintah (CLI) dan boleh disepadukan dengan mudah ke dalam projek sedia ada tanpa sebarang pengubahsuaian khas.
Penggunaan Produk
- Konfigurasikan sistem anda dengan menetapkan pembolehubah persekitaran sebelum meneruskan.
- Untuk bekerja di Antara Muka Baris Perintah (CLI), gunakan skrip setvars.sh untuk mengkonfigurasi alatan dalam kit alat oneAPI melalui pembolehubah persekitaran. Anda boleh mendapatkan skrip setvars.sh sekali setiap sesi atau setiap kali anda membuka tetingkap terminal baharu. Skrip setvars.sh boleh didapati dalam folder akar pemasangan oneAPI anda.
- Aktifkan persekitaran conda yang berbeza seperti yang diperlukan melalui arahan "conda activate ”. Kit AI termasuk persekitaran konda untuk TensorFlow (CPU), TensorFlow dengan Intel Extension untuk Sample TensorFlow (GPU), PyTorch dengan Intel Extension for PyTorch (XPU) dan Intel oneCCL Bindings for PyTorch (CPU).
- Terokai setiap persekitaran yang berkaitan Bermula Sample dipautkan dalam jadual yang disediakan dalam manual pengguna untuk mendapatkan maklumat lanjut tentang cara menggunakan setiap persekitaran.
Arahan berikut menganggap anda telah memasang perisian Intel® oneAPI. Sila lihat halaman Intel AI Analytics Toolkit untuk pilihan pemasangan. Ikuti langkah ini untuk membina dan menjalankan sebagaiampdengan Intel® AI Analytics Toolkit (AI Kit):
- Konfigurasikan sistem anda.
- Bina dan Jalankan Sample.
NOTA: Pemasangan Python standard serasi sepenuhnya dengan Kit AI, tetapi Intel® Distribution for Python* lebih diutamakan.
Tiada pengubahsuaian khas pada projek sedia ada anda diperlukan untuk mula menggunakannya dengan kit alat ini.
Komponen Kit Alat Ini
Kit AI termasuk
- Pengoptimuman Intel® untuk PyTorch*: Perpustakaan Rangkaian Neural Dalam Intel® oneAPI (oneDNN) disertakan dalam PyTorch sebagai pustaka inti matematik lalai untuk pembelajaran mendalam.
- Intel® Extension for PyTorch:Intel® Extension for PyTorch* memanjangkan keupayaan PyTorch* dengan ciri dan pengoptimuman terkini untuk peningkatan prestasi tambahan pada perkakasan Intel.
- Pengoptimuman Intel® untuk TensorFlow*: Versi ini menyepadukan primitif daripada oneDNN ke dalam masa jalan TensorFlow untuk prestasi dipercepatkan.
- Intel® Extension for TensorFlow: Intel® Extension for TensorFlow* ialah pemalam sambungan pembelajaran mendalam berprestasi tinggi yang heterogen berdasarkan antara muka TensorFlow PluggableDevice. Pemalam sambungan ini membawa peranti Intel XPU (GPU, CPU, dll) ke dalam komuniti sumber terbuka TensorFlow untuk pecutan beban kerja AI.
- Pengedaran Intel® untuk Python*: Dapatkan prestasi aplikasi Python yang lebih pantas terus dari kotak, dengan perubahan minimum atau tiada pada kod anda. Pengagihan ini disepadukan dengan Intel® Performance Libraries seperti Intel® oneAPI Math Kernel Library dan Intel®oneAPI Data Analytics Library.
- Intel® Distribution of Modin* (tersedia melalui Anaconda sahaja), yang membolehkan anda menskalakan prapemprosesan dengan lancar merentas berbilang nod menggunakan perpustakaan bingkai data teragih yang pintar ini dengan API yang sama dengan panda. Pengedaran ini hanya tersedia dengan Memasang Kit Alat Analitis Intel® AI dengan Pengurus Pakej Conda*.
- Intel® Neural Compressor : menggunakan penyelesaian inferens berketepatan rendah dengan cepat pada rangka kerja pembelajaran mendalam yang popular seperti TensorFlow*, PyTorch*, MXNet* dan ONNX* (Open Neural Network Exchange) masa jalan.
- Intel® Extension for Scikit-learn*: Cara yang lancar untuk mempercepatkan aplikasi Scikit-Learn anda menggunakan Perpustakaan Analitis Data Intel® oneAPI (oneDAL).
Menampal scikit-learn menjadikannya rangka kerja pembelajaran mesin yang sesuai untuk menangani masalah kehidupan sebenar. - XGBoost Dioptimumkan oleh Intel: Pakej pembelajaran mesin yang terkenal ini untuk pepohon keputusan yang dipertingkatkan kecerunan termasuk pecutan masuk yang lancar untuk seni bina Intel® untuk mempercepatkan latihan model dengan ketara dan meningkatkan ketepatan untuk ramalan yang lebih baik.
Konfigurasikan Sistem Anda – Kit Alat Analitis Intel® AI
Jika anda belum memasang AI Analitis Toolkit, rujuk Memasang Intel® AI Analytics Toolkit. Untuk mengkonfigurasi sistem anda, tetapkan pembolehubah persekitaran sebelum meneruskan.
Tetapkan Pembolehubah Persekitaran untuk Pembangunan CLI
Untuk bekerja di Antara Muka Baris Perintah (CLI), alatan dalam kit alat oneAPI dikonfigurasikan melalui
pembolehubah persekitaran. Untuk menetapkan pembolehubah persekitaran dengan menyumber skrip setvars:
Pilihan 1: Sumber setvars.sh sekali setiap sesi
Sumber setvars.sh setiap kali anda membuka tetingkap terminal baharu:
Anda boleh menemui skrip setvars.sh dalam folder akar pemasangan oneAPI anda, yang biasanya /opt/intel/oneapi/ untuk pemasangan seluruh sistem dan ~/intel/oneapi/ untuk pemasangan peribadi.
Untuk pemasangan seluruh sistem (memerlukan keistimewaan root atau sudo):
- . /opt/intel/oneapi/setvars.sh
Untuk pemasangan persendirian:
- . ~/intel/oneapi/setvars.sh
Pilihan 2: Persediaan sekali untuk setvars.sh
Untuk menyediakan persekitaran secara automatik untuk projek anda, sertakan sumber arahan
/setvars.sh dalam skrip permulaan di mana ia akan digunakan secara automatik (ganti
dengan laluan ke lokasi pemasangan oneAPI anda). Lokasi pemasangan lalai ialah /opt/
intel/oneapi/ untuk pemasangan seluruh sistem (memerlukan keistimewaan root atau sudo) dan ~/intel/oneapi/ untuk pemasangan persendirian.
Untuk example, anda boleh menambah sumber /setvars.sh arahan kepada ~/.bashrc atau ~/.bashrc_pro andafile atau ~/.profile file. Untuk menjadikan tetapan kekal untuk semua akaun pada sistem anda, buat skrip .sh satu baris dalam /etc/pro sistem andafileFolder .d yang sumber setvars.sh (untuk butiran lanjut, lihat dokumentasi Ubuntu tentang Pembolehubah Persekitaran).
NOTA
Skrip setvars.sh boleh diurus menggunakan konfigurasi file, yang amat berguna jika anda perlu memulakan versi perpustakaan atau pengkompil tertentu, dan bukannya lalai kepada versi "terkini". Untuk butiran lanjut, lihat Menggunakan Konfigurasi File untuk Mengurus Setvars.sh.. Jika anda perlu menyediakan persekitaran dalam cangkerang bukan POSIX, lihat Persediaan Persekitaran Pembangunan OneAPI untuk mendapatkan lebih banyak pilihan konfigurasi.
Langkah Seterusnya
- Jika anda tidak menggunakan Conda, atau membangun untuk GPU, Bina dan Jalankan Sample Projek.
- Untuk pengguna Conda, teruskan ke bahagian seterusnya.
- Untuk membangunkan pada GPU, teruskan ke Pengguna GPU
Persekitaran Conda dalam Kit Alat ini
Terdapat berbilang persekitaran konda yang disertakan dalam Kit AI. Setiap persekitaran diterangkan dalam jadual di bawah. Sebaik sahaja anda telah menetapkan pembolehubah persekitaran kepada persekitaran CLI seperti yang diarahkan sebelum ini, anda kemudian boleh mengaktifkan persekitaran konda yang berbeza seperti yang diperlukan melalui arahan berikut:
- konda aktifkan
Untuk maklumat lanjut, sila terokai setiap persekitaran yang berkaitan dengan S Bermulaample dipautkan dalam jadual di bawah.
Gunakan Fungsi Klon Conda untuk Menambah Pakej sebagai Pengguna Bukan Root
Kit alat Analitis Intel AI dipasang dalam folder oneapi, yang memerlukan keistimewaan root untuk diurus. Anda mungkin ingin menambah dan mengekalkan pakej baharu menggunakan Conda*, tetapi anda tidak boleh melakukannya tanpa akses root. Atau, anda mungkin mempunyai akses root tetapi tidak mahu memasukkan kata laluan root setiap kali anda mengaktifkan Conda.
Untuk mengurus persekitaran anda tanpa menggunakan akses root, gunakan fungsi klon Conda untuk mengklon pakej yang anda perlukan ke folder di luar folder /opt/intel/oneapi/:
- Dari tetingkap terminal yang sama tempat anda menjalankan setvars.sh, kenal pasti persekitaran Conda pada sistem anda:
- senarai env conda
Anda akan melihat hasil yang serupa dengan ini:
- senarai env conda
- Gunakan fungsi klon untuk mengklon persekitaran ke folder baharu. Dalam bekasampDi bawah, persekitaran baharu dinamakan usr_intelpython dan persekitaran yang diklonkan dinamakan asas (seperti yang ditunjukkan dalam imej di atas).
- conda create –name usr_intelpython –clone base
Butiran klon akan muncul:
- conda create –name usr_intelpython –clone base
- Aktifkan persekitaran baharu untuk membolehkan keupayaan menambah pakej. conda aktifkan usr_intelpython
- Sahkan persekitaran baharu aktif. senarai env conda
Anda kini boleh membangunkan menggunakan persekitaran Conda untuk Pengedaran Intel untuk Python. - Untuk mengaktifkan persekitaran TensorFlow* atau PyTorch*:
TensorFlow
- conda mengaktifkan aliran tensor
PyTorch
- conda mengaktifkan pytorch
Langkah Seterusnya
- Jika anda tidak membangun untuk GPU, Bina dan Jalankan Sample Projek.
- Untuk membangunkan pada GPU, teruskan ke Pengguna GPU.
Pengguna GPU
Bagi mereka yang sedang membangun pada GPU, ikuti langkah berikut:
Pasang pemacu GPU
Jika anda mengikut arahan dalam Panduan Pemasangan untuk memasang Pemacu GPU, anda boleh melangkau langkah ini. Jika anda belum memasang pemacu, ikut arahan dalam Panduan Pemasangan.
Tambahkan Pengguna ke Kumpulan Video
Untuk beban kerja pengiraan GPU, pengguna bukan akar (biasa) biasanya tidak mempunyai akses kepada peranti GPU. Pastikan anda menambah pengguna biasa anda pada kumpulan video; jika tidak, binari yang disusun untuk peranti GPU akan gagal apabila dilaksanakan oleh pengguna biasa. Untuk menyelesaikan masalah ini, tambahkan pengguna bukan akar pada kumpulan video:
- sudo usermod -a -G video
Lumpuhkan Hangcheck
Untuk aplikasi dengan beban kerja pengiraan GPU yang berjalan lama dalam persekitaran asli, lumpuhkan hangcheck. Ini tidak disyorkan untuk virtualisasi atau penggunaan standard GPU yang lain, seperti permainan.
Beban kerja yang mengambil masa lebih daripada empat saat untuk perkakasan GPU dilaksanakan ialah beban kerja yang berjalan lama. Secara lalai, urutan individu yang layak sebagai beban kerja yang berjalan lama dianggap digantung dan ditamatkan. Dengan melumpuhkan tempoh tamat masa hangcheck, anda boleh mengelakkan masalah ini.
NOTA: Jika kernel dikemas kini, hangcheck didayakan secara automatik. Jalankan prosedur di bawah selepas setiap kemas kini kernel untuk memastikan hangcheck dilumpuhkan.
- Buka terminal.
- Buka grub file dalam /etc/default.
- Dalam grub file, cari baris GRUB_CMDLINE_LINUX_DEFAULT=”” .
- Masukkan teks ini di antara petikan (“”):
- Jalankan arahan ini:
sudo update-grub - But semula sistem. Hangcheck kekal dilumpuhkan.
Langkah Seterusnya
Sekarang setelah anda mengkonfigurasi sistem anda, teruskan ke Bina dan Jalankan Sample Projek.
Bina dan Jalankan Sample Menggunakan Baris Perintah
Kit Alat Analitis Intel® AI
Dalam bahagian ini, anda akan menjalankan projek "Hello World" mudah untuk membiasakan diri anda dengan proses membina projek, dan kemudian membina projek anda sendiri.
NOTA: Jika anda belum mengkonfigurasi persekitaran pembangunan anda, pergi ke Konfigurasi sistem anda kemudian kembali ke halaman ini. Jika anda telah menyelesaikan langkah-langkah untuk mengkonfigurasi sistem anda, teruskan dengan langkah-langkah di bawah.
Anda boleh menggunakan sama ada tetingkap terminal atau Kod Visual Studio* apabila bekerja daripada baris arahan. Untuk butiran tentang cara menggunakan Kod VS secara setempat, lihat Penggunaan Asas Kod Visual Studio dengan oneAPI pada Linux*. Untuk menggunakan Kod VS dari jauh, lihat Pembangunan Kod Studio Visual Jauh dengan oneAPI pada Linux*.
Bina dan Jalankan Sample Projek
Samples di bawah mesti diklon ke sistem anda sebelum anda boleh membina sampprojek:
Untuk melihat senarai komponen yang menyokong CMake, lihat Gunakan CMake untuk dengan Aplikasi oneAPI.
Bina Projek Anda Sendiri
Tiada pengubahsuaian khas pada projek Python sedia ada anda diperlukan untuk mula menggunakannya dengan kit alat ini. Untuk projek baharu, proses itu mengikuti proses yang digunakan untuk mencipta sampprojek Hello World. Rujuk kepada Hello World README files untuk arahan.
Memaksimumkan Prestasi
Anda boleh mendapatkan dokumentasi untuk membantu anda memaksimumkan prestasi untuk sama ada TensorFlow atau PyTorch.
Konfigurasikan Persekitaran Anda
NOTA: Jika persekitaran maya anda tidak tersedia, atau jika anda ingin menambah pakej pada persekitaran maya anda, pastikan anda telah melengkapkan langkah-langkah dalam Gunakan Fungsi Klon Conda untuk Menambah Pakej sebagai Pengguna Bukan Root.
Jika anda sedang membangun di luar bekas, dapatkan skrip berikut untuk menggunakan Intel® Distribution for Python*:
-
- /setvars.sh
- di mana ialah tempat anda memasang kit alat ini. Secara lalai direktori pemasangan ialah:
- Pemasangan root atau sudo: /opt/intel/oneapi
- Pemasangan pengguna tempatan: ~/intel/oneapi
NOTA: Skrip setvars.sh boleh diurus menggunakan konfigurasi file, yang amat berguna jika anda perlu memulakan versi perpustakaan atau pengkompil tertentu, dan bukannya lalai kepada versi "terkini". Untuk butiran lanjut, lihat Menggunakan Konfigurasi File untuk Mengurus Setvars.sh. Jika anda perlu menyediakan persekitaran dalam cangkerang bukan POSIX, lihat Persediaan Persekitaran Pembangunan oneAPI untuk lebih banyak pilihan konfigurasi.
Untuk menukar persekitaran, anda mesti menyahaktifkan persekitaran aktif dahulu.
Ex berikutample menunjukkan mengkonfigurasi persekitaran, mengaktifkan TensorFlow*, dan kemudian kembali ke Pengedaran Intel untuk Python:
Muat turun Bekas
Kit Alat Analitis Intel® AI
Bekas membenarkan anda menyediakan dan mengkonfigurasi persekitaran untuk membina, menjalankan dan memprofil aplikasi oneAPI dan mengedarkannya menggunakan imej:
- Anda boleh memasang imej yang mengandungi persekitaran yang diprakonfigurasikan dengan semua alat yang anda perlukan, kemudian membangunkan dalam persekitaran itu.
- Anda boleh menyimpan persekitaran dan menggunakan imej untuk mengalihkan persekitaran itu ke mesin lain tanpa persediaan tambahan.
- Anda boleh menyediakan bekas dengan set bahasa dan masa jalan yang berbeza, alat analisis atau alatan lain, mengikut keperluan.
Muat turun Imej Docker*
Anda boleh memuat turun imej Docker* daripada Repositori Kontena.
NOTA: Imej Docker ialah ~5 GB dan boleh mengambil masa ~15 minit untuk dimuat turun. Ia memerlukan 25 GB ruang cakera.
- Tentukan imej:
image=intel/oneapi-aikit docker tarik “$image” - Tarik imej.
docker tarik "$image"
Setelah imej anda dimuat turun, teruskan ke Menggunakan Bekas dengan Barisan Perintah.
Menggunakan Bekas dengan Barisan Perintah
Kit Alat Analitis Intel® AI Muat turun kontena pra-bina secara terus. Perintah di bawah untuk CPU akan meninggalkan anda pada gesaan arahan, di dalam bekas, dalam mod interaktif.
CPU
image=intel/oneapi-aikit docker run -it “$image”
Menggunakan Intel® Advisor, Intel® Inspector atau VTune™ dengan Bekas
Apabila menggunakan alatan ini, keupayaan tambahan perlu diberikan kepada bekas: –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE
- docker run –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE \ –device=/dev/dri -it “$image”
Menggunakan Cloud CI Systems
Sistem Cloud CI membolehkan anda membina dan menguji perisian anda secara automatik. Lihat repo dalam github untuk exampkurang konfigurasi files yang menggunakan oneAPI untuk sistem CI awan yang popular.
Penyelesaian masalah untuk Kit Alat Analitis Intel® AI
Notis dan Penafian
Teknologi Intel mungkin memerlukan perkakasan, perisian atau pengaktifan perkhidmatan yang didayakan. Tiada produk atau komponen boleh benar-benar selamat.
Kos dan hasil anda mungkin berbeza-beza.
© Intel Corporation. Intel, logo Intel dan tanda Intel lain ialah tanda dagangan Intel Corporation atau anak syarikatnya. Nama dan jenama lain boleh dituntut sebagai hak milik orang lain.
Maklumat Produk dan Prestasi
Prestasi berbeza mengikut penggunaan, konfigurasi dan faktor lain. Ketahui lebih lanjut di www.Intel.com/PerformanceIndex.
Notis semakan #20201201
Tiada lesen (ternyata atau tersirat, melalui estoppel atau sebaliknya) kepada mana-mana hak harta intelek diberikan oleh dokumen ini. Produk yang diterangkan mungkin mengandungi kecacatan reka bentuk atau ralat yang dikenali sebagai errata yang boleh menyebabkan produk menyimpang daripada spesifikasi yang diterbitkan. Kesalahan berciri semasa tersedia atas permintaan.
Intel menafikan semua waranti nyata dan tersirat, termasuk tanpa had, waranti tersirat kebolehdagangan, kesesuaian untuk tujuan tertentu dan bukan pelanggaran, serta sebarang waranti yang timbul daripada perjalanan prestasi, perjalanan urusan atau penggunaan dalam perdagangan.
Dokumen / Sumber
![]() |
Kit Alat Analitis intel AI untuk Linux [pdf] Panduan Pengguna Kit Alat Analitis AI untuk Linux, Kit Alat Analitis AI, Kit Alat Analitis untuk Linux, Kit Alat Analitis, Kit Alat |