Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Paddle-Lite新需求收集(call for new feature request) #10452

Open
onecatcn opened this issue Feb 27, 2024 · 15 comments
Open

Paddle-Lite新需求收集(call for new feature request) #10452

onecatcn opened this issue Feb 27, 2024 · 15 comments
Assignees

Comments

@onecatcn
Copy link

问卷链接:https://iwenjuan.baidu.com/?code=suexg7

欢迎开发着提出自己的建议,一起优化Paddle-Lite

@Taichipeace
Copy link

希望能训推一体,避免出现训练和推理框架版本导致的推理问题。

@engineer1109
Copy link
Contributor

OpenCL int8 支持

@sprouteer
Copy link
Collaborator

OpenCL int8 支持

#8058 这个pr有支持fc的int8,在高通机型上测试性能提升不高只有20%~30%,你可以试试

@hong19860320
Copy link
Collaborator

OpenCL int8 支持

#8058 这个pr有支持fc的int8,在高通机型上测试性能提升不高只有20%~30%,你可以试试

wow~

@woodboard
Copy link

希望表格识别能和文字识别聚合起来做一个paddle-lite版本的

@z754688651
Copy link

希望后续可以支持动作分类模型进行端侧部署,支持 'temporal_shift' 算子和3d卷积'conv3d, pool3d'算子的转化

@fhowen
Copy link

fhowen commented Apr 7, 2024

希望后续可以支持YOLO模型进行端侧部署,目前YOLO5模型中'fill_constant' 算子和'flip'算子的转化有问题

@LitchiCheng
Copy link

#10485 模型转换报错 elementwise_add_bias_dims not equal to 1, fusion failed

@lg920810
Copy link

lg920810 commented Apr 9, 2024

#10469 希望提供opencl上全局限制Image2D的接口,通过config文件配置若想避免layout算子强制执行buffer2Image,需要把一连串的算子都指定到cpu,但推理就会很慢了

@AvaMins
Copy link

AvaMins commented May 20, 2024

希望后续可以支持动作分类模型进行端侧部署,支持 'temporal_shift' 算子和3d卷积'conv3d, pool3d'算子的转化,支持BMN、AttentionLSTM模型的压缩转化。

@lsewcx
Copy link

lsewcx commented Jun 10, 2024

希望x86_64推出可以进行cv编译库的功能想在x86平台上使用cv预处理库

@ForrestPi
Copy link

希望支持 LLM模型端侧推理

@Z-XQ
Copy link

Z-XQ commented Aug 13, 2024

支持训练,且支持分布式训练

@TrioTea
Copy link

TrioTea commented Aug 14, 2024

希望能为表格识别识别模型做一个demo

@ljqiang
Copy link

ljqiang commented Sep 5, 2024

1、希望可以做一个表格识别的Android demo;
2、感觉现在paddle lite的使用成本依然很高,需要较多的开发适配或者二次开发,这很大程度上限制了大家对框架的使用,对于一些常用的模型,建议建议尽量可以做成黑盒式的,对于简单应用的情况,大家不用太关心内部的实现,尤其是对于模型的预处理、后处理实现,现在这块的实现成本依然挺高的,大家也都是再每个人再实现一遍,这样有点浪费,如果官方能够封装起来,就会比较友好,应该会更大程度的促进大家对于paddle lite的使用,非常感谢~

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests