ON-DEVICE AI SDK Deploy AI trên
Deploy AI trên
mọi thiết bị
Chạy, xây dựng và triển khai AI mọi nơi — với OmniSDK hỗ trợ CLI, Python, C/C++, Android và Linux.
50+ Models sẵn sàng
8 Hardware platforms
20× Nhanh hơn trên NPU
1 line Khởi chạy model
BẮT ĐẦU NHANH
Chạy AI model trong một dòng lệnh
main.py
# Cài đặt OmniSDK qua pip
pip install omnisdk
# Khởi tạo và chạy model
from omnisdk import OmniEngine
engine = OmniEngine("cvedix/qwen3-4b-npu")
response = engine.generate("Explain quantum computing")
print(response.text)
# Object Detection
from omnisdk import OmniVision
detector = OmniVision("cvedix/yolo26-npu")
results = detector.detect("image.jpg")
print(results.objects)TÍNH NĂNG
Tại sao chọn OmniSDK
Suy luận tốc độ cao
Tối ưu hóa cho NPU, GPU & CPU — đạt tốc độ inference cực nhanh trên mọi thiết bị.
Riêng tư tuyệt đối
Mọi xử lý diễn ra trên thiết bị. Không upload dữ liệu, không cloud, không tracking.
Đa nền tảng
Hỗ trợ PC, Mobile, Automotive, IoT & Edge — từ laptop đến robot tự hành.
Multi-modal AI
Text, Vision, Audio, Embedding — chạy LLM, Object Detection, ASR, TTS trên cùng một SDK.
Một dòng lệnh
Cài đặt và chạy model chỉ trong một dòng lệnh. Không cần cấu hình phức tạp.
Production-Ready
Tích hợp OmniQuant cho nén model lên đến 4× nhỏ hơn mà vẫn giữ nguyên chất lượng.
MODEL HUB
Thư viện AI Models sẵn sàng
Deploy các model hàng đầu — đã được tối ưu hóa cho on-device inference.
Model Loại
Qwen3-4B LLM
LFM2.5-1.2B LLM
Phi-4-mini LLM
YOLO26 Vision
AutoNeural-VL Multimodal
OmniNeural-4B Multimodal
Parakeet-TDT ASR
EmbedNeural Embedding
Và nhiều model khác... Xem tất cả
PHẦN CỨNG HỖ TRỢ
Chạy trên mọi nền tảng
Qualcomm Hexagon Snapdragon X Elite, 8 Gen 3
Apple ANE M-series, A-series chips
NVIDIA CUDA RTX, Jetson, datacenter
Intel OpenVINO Core Ultra, Arc GPU
AMD ROCm Ryzen AI, Radeon GPU
ARM Cortex Mobile & embedded SoC
Rockchip NPU RK3588 & RKNN NPU
Hailo AI Hailo-8, Hailo-15
Bắt đầu với OmniSDK
Triển khai model AI đầu tiên trên thiết bị chỉ trong vài phút.