开源大模型发展汇总

文章概述了大模型的发展,特别是中文大模型的现状,包括LLaMA、ChatGLM和百川等开源项目。这些模型在不同场景下表现出色,如法律、医疗和金融领域。微调模型如Alpaca和ChatGLM的性能提升被强调,同时提到训练成本和资源需求。此外,文章还提到了AI代理层的发展和量子计算对算力的潜在影响。
摘要由CSDN通过智能技术生成

1. 大模型发展&概况

a. 发展线路图

其中基础模型如下:

指令微调模型如下

微调模型依赖关系


b. 中文相关大模型

6月 SuperCLUE 中文大模型总排行榜

6月SuperCLUE基础能力榜单

6月SuperCLUE-70亿参数量级榜单

ps:

7.11 百川发布13B模型,超过ChatGLM 130B非开源模型

7.11 Claude2发布,个人通过app和pc免费提供,商用 API 收费。超过chatgpt3.5-turbo。与gpt4比各有优势。价格远低于ChatGPT


c. 支持中文的通用大模型概况

LLaMA

meta 开源

作者在20个benchmarks上验证了 Zero-shot和Few-shot的效果。从效果上看上是非常不错的,似乎证明了训练数据的规模可以弥补模型规模的不足。

基于公开数据集

小参数媲美大参数模型

130 亿参数的 LLaMA 模型「在大多数基准上」可以胜过参数量达 1750 亿的 GPT-3,而且可以在单块 V100 GPU 上运行;而最大的 650 亿参数的 LLaMA 模型可以媲美谷歌的 Chinchilla-70B 和 PaLM-540B

  • 训练:?
  • 运行:1*V100
ChatGLM(清华+智普ai)6B开源

对话模型,ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,并针对中文进行了优化。该模型基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。

ChatGLM-6B 使用了和 ChatGLM 相同的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 虽然规模不及千亿模型,但大大降低了推理成本,提升了效率,并且已经能生成相当符合人类偏好的回答。

  • 训练:100*A100
  • 运行:1*3090(10G显存)
百川(王小川)

baichuan-inc/Baichuan-13B-Chat · Hugging Face

基于LLaMA 源码重头训练的基座模型

目前最大中文开源模型(40层,GPT4 120层)13B模型中文数据集上已超过大部分国外开源

        训练:100*A100

        运行:1*3090 (16G显存)

MOSS(复旦)

对话机器人,体验地址: MOSS 类ChatGPT的开源项目。《流浪地球》

MOSS 是一个支持中英双语和多种插件的开源对话语言模型, moss-moon 系列模型具有 160 亿参数,在 FP16 精度下可在单张 A100/A800 或两张 3090 显卡运行,在 INT4/8 精度下可在单张 3090 显卡运行。

MOSS 基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力

支持:使用搜索引擎、文生图、计算器、解方程。支持插件

  • 训练:?
  • 运行:1*A100 、2*3090(1w),单卡A100占用显存30G
 利玲(Linly) 
  1. 公开所有训练数据、代码、参数细节以及实验结果,确保项目的可复现性,用户可以选择合适的资源直接用于自己的流程中。
  2. 项目具有高兼容性和易用性,提供可用于 CUDA 和 CPU 的量化推理框架,并支持 Huggingface 格式。

目前公开可用的模型有:

    • Linly-Chinese-LLaMA:中文基础模型,基于 LLaMA 在高质量中文语料上增量训练强化中文语言能力,现已开放 7B、13B 和 33B 量级,65B 正在训练中。
    • Linly-ChatFlow:中文对话模型,在 400 万指令数据集合上对中文基础模型指令精调,现已开放 7B、13B 对话模型。
    • Linly-ChatFlow-int4 :ChatFlow 4-bit 量化版本,用于在 CPU 上部署模型推理。

进行中的项目:

        Linly-Chinese-BLOOM:基于 BLOOM 中文增量训练的中文基础模型,包含 7B 和 175B 模型量级,可用于商业场景。

  • 训练:32*A100
  • 运行:?
  • CPM-Bee —— 中英文双语大语言模型

体验地址: CPM-Bee | OpenBMB

基座模型。工程院院士牵头。北大、北航、百度等参与的开放社区

基础任务,包括:文字填空、文本生成、翻译、问答、评分预测、文本选择题等等

开源可商用

  • Chinese-Vicuna —— 基于 LLaMA 的中文大语言模型

Chinese-Vicuna 是一个中文低资源的 LLaMA+Lora 方案。

项目包括

  • finetune 模型的代码
  • 推理的代码
  • 仅使用 CPU 推理的代码 (使用 C++)
  • 下载 / 转换 / 量化 Facebook llama.ckpt 的工具
  • 其他应用

  • Chinese-LLaMA-Alpaca —— 中文 LLaMA & Alpaca 大模型

Chinese-LLaMA-Alpaca 包含中文 LLaMA 模型和经过指令微调的 Alpaca 大型模型。

这些模型在原始 LLaMA 的基础上,扩展了中文词汇表并使用中文数据进行二次预训练,从而进一步提高了对中文基本语义理解的能力。同时,中文 Alpaca 模型还进一步利用中文指令数据进行微调,明显提高了模型对指令理解和执行的能力。

  • ChatYuan —— 对话语言大模型

ChatYuan 是一个支持中英双语的功能型对话语言大模型。ChatYuan-large-v2 使用了和 v1 版本相同的技术方案,在微调数据、人类反馈强化学习、思维链等方面进行了优化。

ChatYuan-large-v2 是 ChatYuan 系列中以轻量化实现高质量效果的模型之一,用户可以在消费级显卡、 PC 甚至手机上进行推理(INT4 最低只需 400M )

  • 训练:?
  • 运行:消费级显卡、pc、手机。只需400M

d. 支持中文的行业/场景大模型概况

LaWGPT 是一系列基于中文法律知识的开源大语言模型

该系列模型在通用中文基座模型(如 Chinese-LLaMA、ChatGLM 等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型在法律领域的基础语义理解能力。在此基础上,构造法律领域对话问答数据集、中国司法考试数据集进行指令精调,提升了模型对法律内容的理解和执行能力

本草(BenTsao)【原名:华驼 (HuaTuo)】是基于中文医学知识的 LLaMA 微调模型

此项目开源了经过中文医学指令精调 / 指令微调 (Instruct-tuning) 的 LLaMA-7B 模型。通过医学知识图谱和 GPT3.5 API 构建了中文医学指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在医疗领域的问答效果

  • 轩辕: 金融领域大模型

度小满在 BLOOM-176B 的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调。

  • ProtTrans

是国内最大的蛋白质预训练模型,参数总量达到 30 亿

FYI:

1. 大语言模型调研汇总

2. 开源大语言模型完整列表 全网最全 - 科技 - 糯米糕资讯网

2. 主流开源基座模型对比

LLaMA、ChatGLM 和 BLOOM。(百川新发布基于LLaMA源码从新制作中英数据集训练的基座模型)

模型

训练数据

训练数据量

模型参数量

词表大小

LLaMA

以英语为主的拉丁语系,不包含中日韩文

1T/1.4T tokens

7B、13B、33B、65B

32000

ChatGLM-6B

中英双语,中英文比例为 1:1

1T tokens

6B

130528

Bloom

46 种自然语言和 13 种编程语言,包含中文

350B tokens

560M、1.1B、1.7B、3B、7.1B、176B

250880

百川-13B

中英文

1.4T tokens

13B

64,000

模型

模型结构

位置编码

激活函数

layer norm

LLaMA

Casual decoder

RoPE

SwiGLU

Pre RMS Norm

ChatGLM-6B

Prefix decoder

RoPE

GeGLU

Post Deep Norm

Bloom

Casual decoder

ALiBi

GeLU

Pre Layer Norm

百川-13B

ALiBi

LLaMA模型及微调模型

运行要求:1*V100

  • Alpaca:斯坦福大学在 52k 条英文指令遵循数据集上微调了 7B 规模的 LLaMA。
  • Vicuna:加州大学伯克利分校在 ShareGPT 收集的用户共享对话数据上,微调了 13B 规模的 LLaMA。
  • baize:在 100k 条 ChatGPT 产生的数据上,对 LLaMA 通过 LoRA 微调得到的模型。
  • StableLM:Stability AI 在 LLaMA 基础上微调得到的模型。
  • BELLE:链家仅使用由 ChatGPT 生产的数据,对 LLaMA 进行了指令微调,并针对中文进行了优化。

ChatGLM模型及微调

ChatGLM2-6B发布:

运行要求:消费级显卡

  • langchain-ChatGLM:基于 langchain 的 ChatGLM 应用,实现基于可扩展知识库的问答。可基于本地知识库构建。可离线运行,私有化部署,有docker镜像
  • 闻达:大型语言模型调用平台,也是知识库问答,支持多种基座模型,推荐 ChatGLM-6B 实现了类 ChatPDF 功能。闻达对资源的评估

百川-13B模型及微调

 百川发布时间较短,有知名度的微调模型还未出现。百川-13B的运行资源要求参考如下

 

3. 微调finetune中文大模型

说明:

自训练模型的初衷起源于,上面3个问题。如果在业务中确实有价值,则值得测试自训练行业匹配的模型,风险可控,性能可控,成本可控。自主可控,且可以考虑对外服务

 训练成本:

不同模型,不同的finetune方法对原模型的影响不同,实际训练后才能确定。 

以百川-13B为例

运行资源参考

  1. 租用,阿里云服务P100(16G显存):月费3k-4k+。或12元/小时
  2. 自购消费级显卡1*3090(24G),9K,2手16G大概7K。另需单独服务器

finetune资源参考:

依参数量,数据量、数据构成不同等差异较大,参考网友信息

Alpaca 7B

Alpaca 7B是斯坦福大学在LLaMA 7B模型上经过52K个指令跟踪示范进行微调的模型,其性能比肩GPT-3.5(text-davinci-003),但是整个训练成本不到600美元。

在8*A100(80G)上训练了3个小时,不到100美元;使用OpenAI的API自动生成指令集,不到500美元

  • 博客 《Alpaca: A Strong, Replicable Instruction-Following Model》、 stanford alpaca
  • 论文 《Self-Instruct: Aligning Language Models with Self-Generated Instructions》、 知乎-论文解读贴

gpt2_chinese

  1. 15G的中文语料
  2. 31亿个tokens
  3. 一张3090显卡
  4. 训练60多个小时

最终训练出一个中文版本的gpt2,如果有想了解如何训练中文gpt2的,可以查看这个教程

https://github.com/yuanzhoulvpi2017/zero_nlp/tree/main/chinese_gpt2

chinese-chat-30m

模型参数:vocab_size=12829,num_hidden_layers=8,num_attention_heads=8,intermediate_size=1024,

max_position_embeddings=512,hidden_size=512 语言模型数据:10G数据 finetune:alpaca 51K条数据

https://huggingface.co/MLRush/chinese-chat-30m

网友测试

训练配置:4*V100,训练时长约70-80小时。33G中文数据,0.8B参数

https://github.com/enze5088/Chatterbox/blob/main/docs/model/llama-zh-base.md

4.其它相关

1.上层构建

AI agent

定位为独立的智能体,除模型微调外,目前各前沿公司重点关注方向之一。目的是在模型之上构建一个能分解处理人类需求为多重promopt的代理层。改层有望部分取代现有程序功能

2. 算力方面

量子计算发展迅速

  1. 华为云开发内部测试量子编程,提供开发包,小规模组织量子开发竞赛
  2. 谷歌最新突破。新量子计算机可以在短短几秒内完成传统超级计算机47年的计算量。

华为HiQ: HiQ量子计算

本源量子云平台: 量子云-本源量子

算力提升,对未来带来无限想象空间

amongdata
关注 关注
  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
开源模型详解
Linux猿
08-04 4900
CSDN博客专家🏆,华为云享专家🏆,Linux、C/C++、云计算、物联网、面试、刷题、算法尽管咨询我,关注我,有问题私聊!
人工智能大模型开源语言模型汇总(国内外开源项目模型汇总
丨汀、的博客
06-19 3054
人工智能大模型开源语言模型汇总(国内外开源项目模型汇总
盘点十大开源模型
u014073556的博客
03-21 6095
模型时代,开源与闭源模型不断涌现,构成了大模型领域的双重引擎。开源模型为AI领域注入了新的活力,基于开源模型的应用如雨后春笋般出现,同时也为研究者和开发者提供了更广阔的创新空间。在此,,让我们共同探寻这些令人振奋的进展。
超强!10大开源模型
最新发布
qkh1234567的博客
08-06 2358
近期,Meta 重磅发布发布两款开源Llama 3 8B与Llama 3 70B模型,供外部开发者免费使用。
开源的大模型
步步为赢的专栏
07-16 174
GitHub项目地址:https://github.com/meta-llama/llama3。开源: https://github.com/facebookresearch/metaseq。模型下载链接:https://llama.meta.com/llama-downloads/开源: https://github.com/THUDM/CodeGeeX。论文:https://arxiv.org/abs/2403.04652。链接:https://github.com/01-ai/Yi。
开源模型文档
qq128252的博客
05-12 1596
经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。训练Vicuna的成本约为300美元。它提供了用于训练用户自己的指令调整的大型语言模型、微调模型、用于更新机器人响应的可扩展检索系统以及用于过滤问题的机器人审核的指令。任务3:使用该数据集(webtext2019zh),参考OpenAI的GPT-2,训练中文的文本写作模型、测试在其他数据集上的zero-shot的效果,或测评语言模型的效果。
【大模型开源模型汇总以及微调策略
桐原因的博客
06-10 7562
自从ChatGPT出世以来,各个大厂/研究院都纷纷推出自己的大模型,大模型领域发展一日千里。随着“百模大战”热度的降低,有必要梳理一下目前主流的大模型以及其变种模型,回顾一下。注:汇总开源模型
开源医疗大模型汇总
qq_53600538的博客
07-04 610
该项目开源了生活空间健康大模型。结合当前开源的中文医疗问答数据集(MedDialog-CN、IMCS-V2、CHIP-MDCFNPC、MedDG、cMedQA2、Chinese-medical-dialogue-data),分析其中的单轮/多轮特性以及医生问询特性,结合自建的生活空间健康对话大数据,构建了千万级别规模的扁鹊健康大数据BianQueCorpus,基于扁鹊健康大数据BianQueCorpus,选择ChatGLM-6B作为初始化模型,经过全量参数的指令微调训练得到BianQue。
开源语言模型(LLM)汇总
08-28
开源语言模型(LLM)汇总
《AI大模型应用》-实时汇总最新Llama3学习资料,完全开源可商用.zip
07-10
Llama中文社区,Llama3在线体验和微调模型已开放,实时汇总最新Llama3学习资料,已将所有代码更新适配Llama3,构建最好的中文Llama大模型,完全开源可商用 个人深耕AI大模型应用领域积累的成果,希望对您有所帮助。...
开源语言模型(LLM)汇总(持续更新中).pdf
08-26
开源语言模型(LLM)汇总(持续更新中).pdf
开源模型调研
weixin_56223343的博客
04-26 760
模型开源不止开源代码,主要是指开源参数chatgpt参数信息以下模型信息来源于。
复旦团队开源模型 MOSS
qq_41771998的博客
04-22 416
首先解释一下我们的MOSS版本,目前开源的版本我们称为MOSS 003,二月份公开邀请内测的版本为MOSS 002,一月份我们还有一个内部测试版本叫做OpenChat 001,这里正好简单介绍一下我们的历次迭代过程。
开源模型与闭源大模型
与时俱进,一专多能。
05-22 2710
开放性开源模型:代码和模型结构是公开可用的,任何人都可以访问、修改和使用。闭源大模型模型的代码和结构是私有的,只能由特定的组织或个人使用。可定制性开源模型:由于其开放性,用户可以根据自己的需求进行定制和修改,以适应特定的应用场景。闭源大模型:定制和修改的程度可能受到限制,因为模型的结构和实现细节可能不公开。数据使用开源模型:数据的使用通常是开放的,用户可以使用自己的数据进行训练和优化。闭源大模型:数据的使用可能受到限制,可能需要使用特定的数据集或遵循特定的使用规则。应用场景开源模型
低成本,高性能,单卡就能跑!这个国产开源模型对开发者太友好了!
阿木寺的博客
10-19 1155
点击下方卡片,关注“CVer”公众号AI/CV重磅干货,第一时间送达2023是大模型爆发年!在ChatGPT引爆市场之后,不管是商用闭源的大模型,还是开源的大模型,数量均是爆炸性增长!商用闭源大模型通常是由大型企业开发,通常会在模型能力、性能和稳定性等方面进行优化,主要用于其自身的业务和产品,但“不友好的地方”在于这些模型是不进行公开分享的。商用闭源大模型最具代表性的就是GPT4及其产品ChatG...
模型:2024开源项目汇总
z099164的博客
07-26 1234
当大模型成本逐渐降低,可靠性提升后,这意味着越来越多的业务应用将会与 LLM 结合,为了让这种结合更加顺畅,需要有与现有来支撑 LLM 应用开发的快速开发应用构建工具: 插件中心, 流程编排, Prompt工程, RAG, Agent模型开发工具: 训练数据管理, 模型调优, 模型评测, 模型部署对比说明可参考:**2.1 Dify:**开源的 LLM 应用开发平台。其直观的界面结合了 AI 工作流、RAG 、Agent、模型管理、可观测性功能等,让您可以快速从原型到生产。
Meta强势发布开源模型Llama 3.1:打响硅谷AI保卫战
specssss的博客
07-29 450
在很长一段时间内,占据大模型评测榜单最前列的大多是一些闭源模型,直到Meta再次发布了最新的开源模型。就在近日,Meta和OpenAI打响了硅谷 AI 大模型保卫战。美国当地时间7月23日,Meta正式发布Llama 3.1。其包含8B、70B 和405B三个规模,最大上下文提升到了128k。Llama是目前开源领域中用户最多、性能最强的大型模型系列之一。
本地开源语言模型汇总:跟踪与分类
随着ChatGPT的流行,本地运行大模型的需求增加,作者定期更新这份清单,旨在帮助用户追踪最新的开源模型及其衍生版本。以下是一些主要模型的概述: 1. **Alpaca (Stanford)** - 由斯坦福大学的研究团队开发的指令...
写文章

热门文章

  • DDD如何设计落地?(库存,产品账示例) 23336
  • 量手知姓氏 :算命测姓氏 之 数学原理 12739
  • debian 资源列表 source.list 10976
  • Solr4.0(SolrCloud) & ElasticSearch(ES) 比较(一) 6461
  • 树莓派(raspberry pi)播放flash 远程登录 视频播放 6101

分类专栏

  • 架构 5篇
  • microservice微服务 2篇
  • C/C++ 6篇
  • 设计模式 4篇
  • 搜索引擎 16篇
  • 环境系统 8篇
  • 自然语言处理 1篇
  • 算法 12篇
  • 数据挖掘 9篇
  • 其它 8篇
  • 机器学习 1篇
  • 产品
  • 翻译 4篇
  • 前端 4篇
  • 技术管理 4篇

最新评论

  • 开源大模型发展汇总

    看着夕阳敲代码: 博主写的非常好,文章干货满满,三联+关注!欢迎作者闲暇之余能回关我的博客进行指导,谢谢!

  • Solr4.0(SolrCloud) & ElasticSearch(ES) 比较(三):查询方式(query_then_fetch)

    weixin_44488569: 您好,ES vs Solr 搜索策略.ppt打不开,可以私发我一份吗?

  • DDD如何设计落地?(库存,产品账示例)

    赫于富: 好文,干货满满,已收藏,初来乍到,希望多多关注,期待大佬回访!

  • DDD如何设计落地?(库存,产品账示例)

    快乐的小三菊: 反手就是一个赞

  • DDD如何设计落地?(库存,产品账示例)

    前端卡卡西呀: 棒啊,大佬的文章让我更进了一步

大家在看

  • A-计算机毕业设计定制:70137 Springboot勤工助学系统(免费领源码)可做计算机毕业设计JAVA、PHP、爬虫、APP、小程序、C# 、C++、python、数据可视化、大数据、全套文案 555
  • 基于jspm高校固定资产管理系统的设计与实现 626
  • 你真的掌握数据结构与算法了吗? 466
  • C语言初学者必看:知识架构+课程推荐+书籍推荐
  • C#基于FastReport 条码打印-(1)实现登录功能 162

最新文章

  • 读书记录(三)
  • 设计模式-- 依赖倒置DIP(例解-从编码到服务级解耦)
  • 技术详设文档化的重要性
2023年1篇
2022年1篇
2021年4篇
2020年2篇
2019年2篇
2018年6篇
2016年3篇
2014年3篇
2013年26篇
2012年16篇
2011年12篇

目录

目录

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家中山大型玻璃钢雕塑厂家价格玻璃钢雕塑商家厂商个旧市玻璃钢雕塑生产厂家淮安玻璃钢雕塑景观设计丽水玻璃钢雕塑服务介绍哪里有玻璃钢雕塑厂家广东装饰商场美陈市场价云南玻璃钢大型雕塑设计哪里好玻璃钢雕塑质保期高淳玻璃钢造型雕塑浙江玻璃钢雕塑摆件销售公司玻璃钢花盆超实惠昆明抽象玻璃钢雕塑批发专业不锈钢玻璃钢卡通雕塑厂家玻璃钢酒仙雕塑浙江走廊商场美陈价格展馆玻璃钢雕塑玻璃钢佛像雕塑大全滕州玻璃钢雕塑常宁玻璃钢花盆花器苏州哪里有玻璃钢雕塑厂梅州主题玻璃钢雕塑厂家价格西安公园主题玻璃钢卡通雕塑商场美陈布置设计单位天津水果玻璃钢雕塑多少钱和田气球商场美陈装饰哪家有名福建玻璃钢雕塑厂招聘商场美陈中国结上海城市景观雕塑玻璃钢湖北玻璃钢卡通雕塑橘子定做香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化