
SoC Platform
AI 인퍼런스 플랫폼
AI 인퍼런스 플랫폼
SEMIFIVE SoC Platform을 통해 적은 리스크, 시간, 노력으로 주요 IP나 사양을 완전하게 작동하는 SoC로 신속하게 구현할 수 있습니다. AI Inference SoC Platform은 맞춤형 AI inference accelerator를 빌드할 수 있는 최고의 솔루션입니다. 삼성 14nm 공정의 실리콘 검증 설계 요소와 광범위한 하드웨어/소프트웨어 환경을 통해 칩을 시스템에 즉시 사용할 수 있도록 해줍니다.
Quad-Core U74 RISC-V (up to 1GHz)
LPDDR4 x 32 4ch
@ 4.267Gbps
PCIe Gen4 x 8 lanes
중요 사항
- Silicon verified with multiple customers adoption
- Optimized for high performance, power efficient AI and inference applications
- Built using Samsung Foundry’s mass production proven 14nm FinFET process technology
- Complete solution with:
- Package design and implementation
- Evaluation board
- Software and drivers
타깃 애플리케이션
- Data center accelerator
- AI Vision processor
- Big data analytics
- Image/Video recognition
- ADAS with real time processing





AI 인퍼런스 SoC 플랫폼
주요 특징
- Process Node: 14nm FinFET
- Operating Frequency: 2GHz
- Hierarchical Design
- Physical Partitions: 19
- Gate Count: 694M
- Instance Count: 109M
- Main IPs
- SiFive RISC-V U74-MC CPU @1GHz
- LPDDR4 x32 4ch @4.267Gbps
- PCIe Gen4 x 8 lanes
- Custom IP (example)
- High-performance AI Neural Engine IP @2GHz
- Others
- I/O interfaces
- System controllers
- Software support
- Low power features
SoC 플랫폼 참여 모델
효율 최적화 모델
고객은 이 도메인에 최적화된 플랫폼 아키텍처와 기능 서브 블록을 재사용하여 차별화에 집중하고 SoC 개발의 효율성을 극대화할 수 있습니다. 빠른 속도로 시장에 출시해야 하는 SoC 프로토타이핑 또는 고부가가치 애플리케이션에 적합합니다.
응용 최적화 모델
고객은 SEMIFIVE 플랫폼 기술을 통해 애플리케이션의 특수 요구 사항에 맞춰서 플랫폼 아키텍처를 구성할 수 있습니다. 또한 SEMIFIVE는 애플리케이션에 필요한 기능을 추가할 수 있도록 새로운 서브 블록 디자인을 개발할 수 있습니다. 이는 시간과 비용 면에서 가장 효율적인 방법이라 할 수 있습니다.
추가 정보 얻기
"*" 필수 필드를 나타냅니다
