BM1684X,32路高清视频智能解析
256路视频解码,128路视频编码
32路高清硬解码与智能分析
32路高清硬解码与智能分析
近50种算法畅享,持续更新服务满足合规分析、环境检测、智能预警等管理需求
算法丰富,覆盖服务柜台、就餐区、周界环境等场景,提升运营收益等需求
审核速度达500字/秒,一台一体机同时可并行分析5篇稿件
SOM1684,搭载算能BM1684,支持16路高清视频分析
Core-1684-JD4,搭载算能BM1684,支持16路高清视频分析
SBC-6841,搭载算能BM1684,支持16路高清视频分析
iCore-1684XQ,搭载算能BM1684X,支持32路高清视频分析
Core-1684XJD4,搭载算能BM1684X,支持32路高清视频分析
Shaolin PI SLKY01,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-M,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-M-G,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-W,搭载算能BM1684,支持16路高清视频分析
AIV02T,PCIE板卡,1684*2,半高半长
IVP03X,搭载算能BM1684X,支持32路高清视频分析
IVP03A,微服务器 被动散热,12GB内存
Coeus-3550T,搭载算能BM1684,支持16路高清视频分析
EC-1684JD4,搭载算能BM1684,支持16路高清视频分析
CSA1-N8S1684,算力集群服务器,BM1684*8,1U
DZFT-ZDFX,ARM+DSP智能封条分析,搭载算能BM1684X
ZNFX-32,搭载算能BM1684,支持16路高清视频分析
ZNFX-8,ARM+DSP架构,隔爆兼本安分析装置符合煤安要求,搭载BM1684X
EC-A1684JD4,微服务器主动散热,16GB内存,32GB eMMC
EC-A1684JD4 FD,搭载算能BM1684,支持16路高清视频分析,16GB内存,32GB eMMC
EC-A1684XJD4 FD,搭载算能BM1684X,支持32路高清视频分析
ECE-S01,搭载算能BM1684,支持16路高清视频分析
IOEHM-AIRC01,微服务器,主动散热,搭载算能BM1684,支持16路高清视频分析
IOEHM-VCAE01,搭载算能BM1684,支持16路高清视频分析
CSA1-N8S1684X,算力集群服务器,BM1684X*8,1U
QY-S1U-16,1U版本BM1684盒子
QY-S1U-192,算力集群服务器,BM1684*12,1U
QY-S1X-384,算力集群服务器,BM1684X*12,1U
视频实时压缩转码上云和监测异常事件,增强道路运行安全事件的发现和处置能力
为交通拥堵、行车安全、车辆违法和道路污染治理问题赋能
以国产化算力支撑海量视频的结构化解析,服务警务应用实战
以数据为中心打造“智能、协同、高效、创新”的步态识别大数据分析系统
为用户快速构建融合人、车、通行等多维数据的业务能力
对生产全过程、全方位实时感知与精细化监管,推进应急监测智能化,赋能风险识别预警
为粮仓、棉仓等大型仓储园区的办公、质检、磅房、库区等区域提供了违规行为和异常事件的安全监控方案
全量场景感知预警,赋能烟草生产作业过程数智化
为白酒生产企业细化风险监测因素,建立智能感知与预警感知体系,提高企业安全生产管理水平
以云边协同的新型算力基础设施赋能各类数字城市场景,为数字经济发展提供源动力
以自动化训练推理一体化平台为基础,助力算力/算法整合应用快速、高效工程化落地
TPU编程竞赛-应用挑战赛(以下简称“大赛”)是由算能主办的应用挑战竞赛,大赛面向各大高校学生、开源社区开发者等来自各地的参赛选手,旨在根据不同算法和软件技术栈层级逐步设立系列竞赛赛事,并将竞赛赛题开源。TPU编程竞赛作为一个高水平的竞赛平台,致力于为国家发现和培育算法人才、极致挖掘TPU硬件澎湃算力、用算法和软件的创新解决社会或业务问题,激发开源创新活力,培养开源实践人才,助力开源生态建设。
细粒度图像分类(Fine-grained image categorization),是当前计算机视觉、模式识别领域的一个研究热点。ViT(Vision Transformer)模型是Google提出的基于Transformer的高效分类模型,被广泛应用在图像识别、生成建模和多模型任务中,例如对象检测、动作识别、视觉问答、视觉推理等。如今的智能应用场景纷繁复杂,在边端设备上完成模型部署,使其具备高速推理能力,对应用落地而言具有重要意义。本竞赛旨在引导选手完成在边端设备上的ViT模型部署,并提高推理性能,挖掘TPU硬件极致算力,激发开源创新活力。
参赛者需要使用预训练好的ViT模型,使用int8量化、算子融合、图优化、layergroup优化、混合精度等方式对模型完成编译优化,最后使用算能工具链将模型转成算能1684x处理器可执行的bmodel文件,部署到算能少林派上运行;使用工具链分析模型性能,在保证与原始模型余弦相似度大于0.85的情况下,提高模型推理速度。
TPU-MLIR项目是算能智能处理器的TPU编译器工程。该工程提供了一套完整的工具链,其可以将不同框架下预训练的神经网络,转化为可以在算能TPU上高效运算的二进制文件。
本赛题只设置决赛,具体安排和要求如下:
2023/07/06(12:00)发布大赛赛题,选手可登录算能官网报名;
2023/07/12(12:00)截至报名组队;
2023/07/12,决赛复现与答辩,选手输出技术文档与答辩PPT
大赛面向全球征集参赛团队,不限年龄、国籍,高校、科研院所、企业从业人员等均可登录官网报名参赛。
个人报名信息要求准确有效,否则会被取消参赛资格。本赛事不收取任何报名费用。
每队1-5人,每个人最多组队一次,不可退出队伍。
选手通知:大赛组委会将通过参赛团队预留的联系方式邀请参赛团队参与大赛各项活动,若参赛团队在相关通知发出后3日内未答复,则视为自动放弃相应机会,主办方有权顺位递补其他参赛团队。
选手获奖:在比赛结束后六个月之内将会将奖金发送到获奖者账户中。
参赛团队在比赛过程中需要自觉遵守参赛秩序,禁止使用规则漏洞、技术漏洞、手动打标等不良途径提高成绩与排名,也禁止在比赛中抄袭他人代码、串通答案、开小号,如果被发现就会被取消比赛资格,并终身禁赛。