年度个人工作总结
## 2024年个人工作总结
......
## 2024年员工素质能力考评表
| 考核要素 | 定义 | 自评、成果与佐证 | 满分 |
| --- | --- | --- | --- |
| 全局观念 | 开展工作或进行决策时,能够考虑他人、其他部门或公司整体的情况,从组织的整体或长远利益出发,顾全大局,为了整体利益能够牺牲局部利益或个人利益。| | 10 |
| 诚信正直 | 能依据事物原本的情况处理组织中的事务,不受个人利益、好恶的影响,信守承诺,正确对待自己的错误。 能依据事物原本的情况处理项目组中的事务,不受个人利益、好恶的影响,信守承诺。| | 10 |
| 专业技术能力 | 支撑本岗位工作所要求并且能够在工作中体现应用的的各类专业技术能力,包括知识储备、经验积累等。| | 5 |
| 专业学习 | 通过个人有计划学习和实践,增加学识、提高技能,并把它应用到日常工作中以提高个人和组织绩效。| | 5 |
| 创新能力 | 关注身边的新技术、新方法和新事物,挑战传统的工作方式,推陈出新,在服务、技术、产品和管理等方面追求卓越,进行突破性创新的行为特征。| | 5 |
| 分析与解决 | 搜集相关信息,识别不同信息间的联系,寻根溯源解决问题的能力。| | 5 |
| 团队合作 | 作为团队的一员,在团队中主动征求他人意见,与他人互享信息,互相鼓励,为了团队共同的目标与大家通力合作完成任务的能力。| | 5 |
| 沟通能力 | 针对一定的受众对象,通过倾听、清晰表达自己的意见,公开进行反馈,与他人进行信息传递的能力。| | 5 |
| 自控能力 | 在面对他人的反对、敌意、挑衅和压力环境下,能够保持冷静,控制负面情绪和消极行为,继续完成工作任务的能力。| | 5 |
| 团队管理 | 通过授权、激励等管理手段充分发挥团队成员优势,促进团队合作,解决人员冲突,带领团队成员完成工作目标。| | 5 |
| 组织协调 | 根据工作目标的需要,合理配置相关资源,协调各方面关系、调动各方面的积极性,并及时处理和解决目标实现过程中各种问题的能力。| | 5 |
| 灵活性 | 随机应变,在工作及周围的环境发生变化时,能依照情况需求改变自己的工作方法或处事方式,并在组织或工作要求上有所改变或能容易接受改变。| | 5 |
| 客户导向 | 能够关注客户不断变化的需求,竭尽全力帮助和服务客户,为客户创造价值。| | 5 |
| 成就动机 | 个人有强烈的追求工作成功的愿望,不断设定挑战性的目标挑战自我,关注自身职业生涯的发展,追求事业的成功和卓越。| | 5 |
| 责任心 | 认可自己的工作职责,认真的采取行动去完成这些职责,并自发自觉地承担工作后果。 面对职责内外的多重任务与压力时,始终坚持以工作目标为导向,主动统筹安排并确保高质量完成本职工作。| | 5 |
| 工作成效 | 充分发挥岗位职责,合理制定工作计划,认真落实部门安排的工作,面对问题探索多种解决方案,积极汇报沟通,高效率高质量完成工作。| | 15 |
参考`2024年个人工作总结`来填写`2024年员工素质能力考评表`中的`自评、成果与佐证`。
### 要求
1、要考虑`考核要素`和`定义`的关系;
2、用一句话,100字左右。

突出或特殊业绩及贡献
## 2024年个人工作总结
......
参考`2024年个人工作总结`的内容,从中提炼出`突出或特殊业绩及贡献`。
### 要求
1. 列出至少10条`突出或特殊业绩及贡献`。
2. 每条用一句话,字数100字左右。
### 示例
| 标题 | 内容 |
| --- | --- |
| 分布式大模型管理 | 提高了大型语言模型访问的并发能力和多项目的共享复用,部署了ChatGLM2-6B、ChatGLM3-6B的大模型和BGE2嵌入模型集群,通过与OpenAI API接口的兼容,能够很好的与LangChain进行集成,使得现有上层应用能够实现无缝衔接。目前我们的大模型项目共用这个集群,如:“宁问不倒”数字专家项目、文档问答机器人、集成到企业微信的聊天机器人等。 |
| 搭建大模型基础服务 | 在公司服务器上搭建了一套基于大模型的基础服务。包含分布式大模型管理(ChatGLM2-6B、ChatGLM3-6B、LLaMA2、Vicuna2等),嵌入模型(BGE2),模型管理和评估(FastChat、One API),LLMOps(FastGPT、Dify),模型聊天工具(ChatGPT Next Web)。通过这套基础服务,加速大模型应用的构建、评测和运维。 |
| 大模型微调安规问答机器人 | 成功基于大模型ChatGLM微调了一款专业的安规问答机器人,不仅深入理解了微调的全流程,还积累了大量的大模型微调实践经验,如:数据集、训练及推理。这将对我们未来的相关工作产生积极影响。 |
| 大模型推理加速实践 | 探索了Flash-Attention、fastllm、ggml、不同精度的量化(FP16、INT8、INT4)、FP16+INT8混合精度量化等推理加速方法。目前最佳的推理方法是:FP16+INT8混合精度量化。使用大型语言模型ChatGLM2-6B测试,GPU动态利用率提升了1.5倍,显存节省了60%,推理速度-10%到30%。 |
| 加速构建镜像 | 通过实践,我成功地整理了一套加速构建镜像的方法,包括对Conda、pip、apt和镜像缓存的优化。采用开发和发布分层构建的方式,这不仅显著提高了构建速度,还有效地减少了发布镜像的大小。通过脚本支持构建arm64、amd64和CUDA等不同芯片架构,大大提升了产品适应性。 |
