目录

🔥 大模型

ChatGPT

讯飞星火

活字通用大模型

🔥 Andrej Karpathy

State of GPT

🔥 李沐

论文精读

🔥 李宏毅

MACHINE LEARNING 2023 SPRING

🔥 DeepLearning.AI 课程 中文视频

ChatGPT Prompt Engineering for Developers

中文笔记

LangChain for LLM Application Development

中文笔记

Building Systems with the ChatGPT API

中文笔记

How Diffusion Models Work

🔥 Datawhale

Bilibili Datawhale

[GitHub Datawhale]

HuggingLLM

🔥 开发文档

OpenAI Cookbook

LangChain

🔥 相关文档

🔥 数据

指令数据(用于微调)

🔥 测评基准

通用语言理解测评基准 CLUE

通用语言理解评估 (GLUE) 基准是用于训练、评估和分析自然语言理解系统的资源集合。

  • 九个句子或句子对语言理解任务的基准,建立在已建立的现有数据集上,并选择覆盖各种数据集大小、文本类型和难度,
  • 诊断数据集,旨在评估和分析自然语言中发现的各种语言现象的模型性能,以及
  • 用于跟踪基准性能的公共排行榜和用于可视化诊断集上模型性能的仪表板。

GLUE 基准测试的格式与模型无关,因此任何能够处理句子和句子对并产生相应预测的系统都有资格参与。 选择基准任务是为了支持使用参数共享或其他迁移学习技术跨任务共享信息的模型。 GLUE 的最终目标是推动通用且强大的自然语言理解系统的开发研究。

中文语言理解测评基准(CLUE)

中文语言理解测评基准,包括代表性的数据集、基准(预训练)模型、语料库、排行榜。我们会选择一系列有一定代表性的任务对应的数据集,做为我们测试基准的数据集。这些数据集会覆盖不同的任务、数据量、任务难度。

SUPERB(Speech processing Universal PERformance Benchmark)

Segment Anything

Demo

论文(中文)

GitHub

Grounded-Segment-Anything

HuggingFace

GitHub

参考资料

🔥 AI 应用

人工智能会议

2023 世界人工智能大会 - WORLD ARTIFICIAL INTELLIGENCE CONFERENCE(WAIC)

参考资料