ai工具集3

深度探索ai

深度探索ai官网入口,deepseek官方网站,国产超强超越一切国外大模型

标签:ai工具集3deepseek r1 deepseek r1和v3的区别 deepseek v3

深度探索ai官网入口,deepseek官方网站,国产超强超越一切国外大模型

简介

深度探索ai也就是deepseek,正确中文名是深度求索!   DeepSeek是一款由国内人工智能公司研发的大型语言模型,拥有强大的自然语言处理能力,能够理解并回答问题,还能辅助写代码、整理资料和解决复杂的数学问题。与OpenAI开发的ChatGPT相比,DeepSeek不仅率先实现了媲美OpenAI-o1模型的效果,还大幅降低了推理模型的成本。其新模型DeepSeek-R1以十分之一的成本达到了GPT-o1级别的表现,引发海外AI圈的广泛讨论。据报道,DeepSeek开发的模型在多项测试中的表现都优于OpenAI,且设计成本不到600万美元,堪称“小力出奇迹”。
deepseek api官网: https://platform.deepseek.com/
说明: api支持deepseek v3以及deepseek r1
api调用文档教程: https://api-docs.deepseek.com/zh-cn/
DeepSeek r1 本地部署教程: https://feizhuke.com/deepseek-r1-bendibushu.html
deepseek r1开源项目官网: https://github.com/deepseek-ai/DeepSeek-R1

deepseek v3开源项目官网: https://github.com/deepseek-ai/DeepSeek-V3

扫码下载deepseek app: 

深度探索ai深度探索ai

DeepSeek R1是由杭州深度求索公司于2025年1月20日正式发布的第一代推理模型,它包含两个主要版本:DeepSeek-R1-Zero和DeepSeek-R1。

deepseek r1和v3的区别

DeepSeek R1与V3版本的核心差异

DeepSeek R1和V3是两款针对不同应用场景设计的AI模型,它们在设计目标、技术实现和性能表现上有明显的区别:

设计目标和应用场景
  • DeepSeek R1
    • 目标用户:学术研究者、问题解决者和决策支持系统。
    • 侧重点:深度推理和问题解决,适合需要逻辑分析和复杂推理的任务。
    • 示例:在处理复杂的数据分析或科学问题时表现出色。
  • DeepSeek V3
    • 目标用户:开发者和企业用户,侧重于大规模自然语言处理任务。
    • 侧重点:可扩展性和高效处理,适合多语言翻译和内容生成等应用。
    • 示例:在多语言任务和大规模数据处理中表现优异。
技术实现和性能指标
  • DeepSeek R1
    • 架构:采用稠密Transformer架构,适合处理长上下文,但计算资源消耗较高。
    • 训练方法:结合监督微调和强化学习,强调思维链推理。
    • 性能指标:在逻辑思维和数学推理方面表现较好。
  • DeepSeek V3
    • 架构:采用混合专家(MoE)架构,通过动态路由机制优化计算成本。
    • 训练方法:使用混合精度FP8训练,支持高质量训练和扩展序列长度。
    • 性能指标:在数学、多语言任务和编码任务中表现优秀,响应速度更快。
综合推荐与风险提示
  • DeepSeek R1:适合需要深度推理和复杂逻辑分析的用户,如研究人员和专业人士。
  • DeepSeek V3:适合需要处理大规模多语言数据和高效AI解决方案的企业,如开发者和内容创作者。

在选择时,用户应考虑自己的具体需求和资源状况,同时关注模型的最新发展,以便获得最佳的性能和体验。

DeepSeek R1:专注于高阶推理

deepseek R1 是一种基于强化学习 (RL) 来处理复杂任务的推理优先模型。它有两个版本:

DeepSeek R1-Zero 和 DeepSeek R1。这些版本共享相同的架构,但训练方法不同。

DeepSeek R1的特点

推理能力

DeepSeek R1-零 完全使用 RL 进行训练,没有任何监督微调 (SFT)。这使得模型能够独立发展自我反思和验证等高阶推理功能。然而,R1-Zero 面临重复输出和可读性不一致等问题。

为了解决这些问题,DeepSeek R1 在 RL 之前加入了 SFT 阶段。这一步骤提高了模型的清晰度和准确性,使其成为推理任务的更可靠的选择。

培训方法

R1 的训练过程着重于思想链 (CoT) 推理,这有助于模型将问题分解为更小、更易于管理的步骤。

CoT 方法使 R1 在数学、编码和逻辑推理等领域非常有效。

效指标

DeepSeek R1 在需要逻辑思维的基准测试中表现异常出色。例如:

它在 DROP(92.2% F1 分数)和 AIME 2024(79.8% pass@1)等任务中优于 OpenAI 的 o1-mini。

R1-Distill-Qwen-32B 等蒸馏版本可透过明显较少的参数提供可比较的结果,从而更适合较小规模的应用。

DeepSeek R1的应用

deepseek R1 非常适合需要深度推理的任务,例如学术研究、解决问题的应用程式和决策支援系统。

由于其开源可用性,研究人员还可以针对特定领域进行微调。

DeepSeek V3:平衡效率和可扩展性

deepseek V1 采用不同的方法,专注于可扩展性和高效处理。

它建立在专家混合 (MoE) 架构之上,其中每个令牌仅啟动其参数的子集,从而在不牺牲效能的情况下降低计算成本。

DeepSeek V3的特点

高效架构

DeepSeek V3 使用 MoE 架构,每个令牌啟动 671B 参数中的 37B 参数。

这种选择性活化可确保模型高效运行,在推理过程中需要更少的资源。

培训效率

V3 的训练过程旨在具有成本效益。采用混合精准度FP8训练,减少大规模预训练所需的GPU小时数。

例如,在 14.8 兆个代币上训练 V3 仅需要 278.8 万 H800 GPU 小时,与其他大型模型相比更经济。

基准表现

deepseek V1 擅长数学和多语言任务。例如:

它在 CMath 上获得了 90.7% 的分数,在 HumanEval 上的编码任务上获得了 65.2% pass@1 的成绩。

在 CLUEWSC 和 C-Eval 等中文基准测试中,V3 展现了卓越的准确性,超越了许多竞争对手。

多标记预测 (MTP)

DeepSeek V3 引入了 MTP,该功能允许它同时预测多个令牌。这加快了推理速度并有助于提高其整体效率。

DeepSeek V3的应用

DeepSeek V3 非常适合大规模自然语言处理 (NLP) 任务,例如 对话式人工智慧、多语言翻译和内容生成。

它的效率使其成为寻求大规模部署人工智慧的组织的绝佳选择。

DeepSeek R1 与 DeepSeek V3: 比较 DeepSeek R1 和 DeepSeek V3

虽然这两种型号都提供了令人印象深刻的功能,但它们的差异使它们适用于不同的用例。

深度探索ai

DeepSeek R1 在推理繁重的任务中脱颖而出,透过其基于 RL 的管道提供高级逻辑。

同时,DeepSeek V3 凭藉其可扩展且高效的设计,在计算要求较高的任务中表现出色。

结论

DeepSeek R1 和 DeepSeek V3 之间的选择取决于您的特定需求。如果您正在寻找可以处理推理繁重任务的模型,DeepSeek R1 是您的最佳选择 更好的选择。

它分解复杂问题并提供清晰推理的能力使其对于研究和学术应用具有无价的价值。

另一方面,如果您的重点是大规模 NLP 任务或多语言应用程序,DeepSeek V3 可以提供无与伦比的效率和效能。

其可扩展的架构和经济高效的培训使其成为需要强大人工智慧解决方案的组织的绝佳选择。

两种型号均代表 重大进步 在人工智慧开发方面。透过了解他们的优势和能力,您可以就哪种模型最适合您的目标做出明智的决定。

常见问题解答

1. DeepSeek R1和V3的主要差异是什么?

DeepSeek R1 专注于使用强化学习的推理任务,而 DeepSeek V3 则专注于透过其 Mixture-of-Experts 架构进行可扩展且高效的自然语言处理。

2. 哪一种模型的训练成本效益较高?

由于其混合精准度 FP8 训练框架,DeepSeek V3 更具成本效益,需要更少的 GPU 时间。

3. 两种型号都可以本地部署吗?

是的,DeepSeek R1和V3都支援本地部署,并提供硬体和软件配置的详细说明。

DeepSeek-R1 发布,性能对标 OpenAI o1 正式版

今天,我们正式发布 DeepSeek-R1,并同步开源模型权重。

  • DeepSeek-R1 遵循 MIT License,允许用户通过蒸馏技术借助 R1 训练其他模型。
  • DeepSeek-R1 上线 API,对用户开放思维链输出,通过设置 model='deepseek-reasoner' 即可调用。
  • DeepSeek 官网与 App 即日起同步更新上线。

性能对齐 OpenAI-o1 正式版

DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。

深度探索ai

在此,我们将 DeepSeek-R1 训练技术全部公开,以期促进技术社区的充分交流与创新协作。

论文链接: https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf

蒸馏小模型超越 OpenAI o1-mini

我们在开源 DeepSeek-R1-Zero 和 DeepSeek-R1 两个 660B 模型的同时,通过 DeepSeek-R1 的输出,蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标 OpenAI o1-mini 的效果。

深度探索ai

HuggingFace 链接: https://huggingface.co/deepseek-ai

深度探索ai

开放的许可证和用户协议

为了推动和鼓励开源社区以及行业生态的发展,在发布并开源 R1 的同时,我们同步在协议授权层面也进行了如下调整:

  • 模型开源 License 统一使用 MIT。我们曾针对大模型开源的特点,参考当前行业的通行实践,特别引入 DeepSeek License 为开源社区提供授权,但实践表明非标准的开源 License 可能反而增加了开发者的理解成本。为此,此次我们的开源仓库(包括模型权重)统一采用标准化、宽松的 MIT License,完全开源,不限制商用,无需申请。
  • 产品协议明确可“模型蒸馏”。为了进一步促进技术的开源和共享,我们决定支持用户进行“模型蒸馏”。我们已更新线上产品的用户协议,明确允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。

App与网页端

登录DeepSeek官网或官方App,打开“深度思考”模式,即可调用最新版 DeepSeek-R1 完成各类推理任务。

深度探索ai

API 及定价

DeepSeek-R1 API 服务定价为每百万输入 tokens 1 元(缓存命中)/ 4 元(缓存未命中),每百万输出 tokens 16 元。

深度探索ai
深度探索ai

详细的 API 调用指南请参考官方文档:  https://api-docs.deepseek.com/zh-cn/guides/reasoning_model

DeepSeek-V3 正式发布

今天,我们全新系列模型 DeepSeek-V3 首个版本上线并同步开源。

登录官网 chat.deepseek.com 即可与最新版 V3 模型对话。API 服务已同步更新,接口配置无需改动。当前版本的 DeepSeek-V3 暂不支持多模态输入输出。

性能对齐海外领军闭源模型

DeepSeek-V3 为自研 MoE 模型,671B 参数,激活 37B,在 14.8T token 上进行了预训练。

论文链接:https://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdf

DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。

深度探索ai
  • 百科知识: DeepSeek-V3 在知识类任务(MMLU, MMLU-Pro, GPQA, SimpleQA)上的水平相比前代 DeepSeek-V2.5 显著提升,接近当前表现最好的模型 Claude-3.5-Sonnet-1022。
  • 长文本: 在长文本测评中,DROP、FRAMES 和 LongBench v2 上,DeepSeek-V3 平均表现超越其他模型。
  • 代码: DeepSeek-V3 在算法类代码场景(Codeforces),远远领先于市面上已有的全部非 o1 类模型;并在工程类代码场景(SWE-Bench Verified)逼近 Claude-3.5-Sonnet-1022。
  • 数学: 在美国数学竞赛(AIME 2024, MATH)和全国高中数学联赛(CNMO 2024)上,DeepSeek-V3 大幅超过了所有开源闭源模型。
  • 中文能力: DeepSeek-V3 与 Qwen2.5-72B 在教育类测评 C-Eval 和代词消歧等评测集上表现相近,但在事实知识 C-SimpleQA 上更为领先。
深度探索ai

生成速度提升至 3 倍

通过算法和工程上的创新,DeepSeek-V3 的生成吐字速度从 20 TPS 大幅提高至 60 TPS,相比 V2.5 模型实现了 3 倍的提升,为用户带来更加迅速流畅的使用体验。

深度探索ai

API 服务价格调整

随着性能更强、速度更快的 DeepSeek-V3 更新上线,我们的模型 API 服务定价也将调整为每百万输入 tokens 0.5 元(缓存命中)/ 2 元(缓存未命中),每百万输出 tokens 8 元,以期能够持续地为大家提供更好的模型服务。

深度探索ai

与此同时,我们决定为全新模型设置长达 45 天的优惠价格体验期:即日起至 2025 年 2 月 8 日,DeepSeek-V3 的 API 服务价格仍然会是大家熟悉的每百万输入 tokens 0.1 元(缓存命中)/ 1 元(缓存未命中),每百万输出 tokens 2 元,已经注册的老用户和在此期间内注册的新用户均可享受以上优惠价格。

深度探索ai

开源权重和本地部署

DeepSeek-V3 采用 FP8 训练,并开源了原生 FP8 权重。

得益于开源社区的支持,SGLang 和 LMDeploy 第一时间支持了 V3 模型的原生 FP8 推理,同时 TensorRT-LLM 和 MindIE 则实现了 BF16 推理。此外,为方便社区适配和拓展应用场景,我们提供了从 FP8 到 BF16 的转换脚本。

模型权重下载和更多本地部署信息请参考: https://huggingface.co/deepseek-ai/DeepSeek-V3-Base

“以开源精神和长期主义追求普惠 AGI” 是 DeepSeek 一直以来的坚定信念。我们非常兴奋能与社区分享在模型预训练方面的阶段性进展,也十分欣喜地看到开源模型和闭源模型的能力差距正在进一步缩小。

这是一个全新的开始,未来我们会在 DeepSeek-V3 基座模型上继续打造深度思考、多模态等更加丰富的功能,并将持续与社区分享我们最新的探索成果。

DeepSeek-R1和DeepSeek-V3详细测评

什么是 DeepSeek-R1?

一周前刚刚发布的 DeepSeek-R1 已经在人工智能社区引起了轰动。它不仅仅是一个模型,它代表了人工智能推理和理解能力的一次飞跃。DeepSeek-R1 建立在刚刚于上个月发布的 DeepSeek-V3-Base 模型的基础上,通过结合强化学习 (RL) 引入了一种突破性的推理方法。

DeepSeek-R1 的真正创新之处在于它新颖地使用 RL 来提高推理能力。这种增强功能使模型在一系列推理和知识基准上表现异常出色,为 AI 性能树立了新标准。更令人印象深刻的是?DeepSeek-R1 是完全开源的,允许更广泛的社区利用和构建其功能。

DeepSeek-V3-Base 的强大功能

在深入了解 DeepSeek-R1 的功能之前,让我们先了解一下支持它的核心架构 — DeepSeek-V3-Base。这是一个庞大的混合专家 (MoE) 语言模型,这就是它如此强大的原因。

想象一下一个拥有数百万本书的图书馆。在像 ChatGPT 这样的传统密集模型中,每次提出问题时,模型都会“打开”图书馆中的每一本书来寻找答案。这种方法计算成本高昂且效率低下。

深度探索ai

然而,DeepSeek-V3-Base 使用的是 MoE 架构。它不是访问所有书籍,而是依赖于针对不同主题定制的一组专门的“专家书籍”。这使得这个过程更快、更高效,更重要的是,更准确。

DeepSeek-V3-Base 拥有惊人的 6710 亿个参数,是现存最大的模型之一。对于处理的每个标记,都会激活 370 亿个参数,将焦点缩小到一小部分经过高度训练的专家,从而产生精确而快速的答案。该模型已在 14.8 万亿个高质量标记上进行了预训练,为深度推理和理解奠定了坚实的基础。

DeepSeek-R1 的演变

DeepSeek-R1 并非独立模型。它由 DeepSeek-R1–Zero(DeepSeek-R1 的前身)演变而来。DeepSeek-R1–Zero 和 DeepSeek-R1 都利用强化学习来增强推理能力,但它们整合这项技术的方式是其性能的关键。

DeepSeek-R1–Zero 以 DeepSeek-V3-Base 为基础,使用 GRPO(广义强化策略优化)框架来改进推理。但 GRPO 到底是什么?为什么它如此重要?

在典型的强化学习 (RL) 中,有两个主要组成部分:策略模型(决定采取哪些行动)和评价模型(评估这些行动并提供反馈)。然而,评价模型通常与策略模型本身一样庞大且计算成本高昂,这可能会使 RL 难以训练。

深度探索ai

强化学习——关键组成部分

GRPO 通过消除对单独批评模型的需求来简化这一过程。相反,它使用旧策略来生成一组输出,对它们进行集体评估,并随着时间的推移不断改进。此过程可确保稳步、渐进地改进,而不会因不必要的计算而使系统过载。

了解 GRPO:深入了解

为了更好地理解 GRPO 的工作原理,我们来打个比方。假设一位老师要求全班同学就同一主题写论文。她不会单独给每篇论文打分,而是对整个小组进行评估,并将每篇论文与小组中最好的论文进行比较。最好的论文设定了一个基准,但目标是让所有论文随着时间的推移逐渐进步,而不仅仅是模仿最好的论文。

深度探索ai

这种逐步改进的过程是 GRPO 的核心。它对准确性(确保答案正确)和格式(确保推理以特定格式(如和标签)清晰呈现)都使用奖励。虽然 DeepSeek-R1–Zero 在推理方面取得了重大进步,但它在一些问题上遇到了困难,包括可读性和语言混合。这就是 DeepSeek-R1 的演变之处。

从 DeepSeek-R1–Zero 到 DeepSeek-R1:应对挑战

DeepSeek  R1–Zero 的基础非常出色,但其性能并不完美。它难以清晰一致地呈现推理,尤其是在处理复杂的语言任务时。这促使 DeepSeek-R1–Zero 流水线进行了修订,从而催生了 DeepSeek-R1。

DeepSeek-R1 的开发始于使用高质量推理数据对 DeepSeek-V3-Base 进行冷启动。这些数据包括:

  1. 使用 CoT(思维链)示例的少量样本提示:这些示例指导模型逐步分解问题,鼓励结构化和逻辑推理。
  2. 使用明确指令的直接提示:该模型经过训练可以遵循任务的详细指令,确保一致性并符合用户期望。
  3. R1-Zero 的精炼输出:分析了 DeepSeek-R1-Zero 生成的预测,并且仅将最易读和最准确的示例包含在数据集中。
  4. 人工注释输出:专业的人工注释者审查并完善输出,以确保清晰度、连贯性并符合高质量标准。

通过利用这些精选的训练数据,DeepSeek-R1 能够解决 DeepSeek-R1–Zero 面临的可读性和语言一致性问题。

第一个强化学习阶段和奖励

一旦模型有了坚实的基础,它就会进入下一阶段的训练,即使用 GRPO 进行强化学习。在这里,两种类型的奖励发挥作用:

  1. 准确度奖励——此奖励验证模型的答案是否正确,类似于使用预定义的测试用例检查数学问题或解决编码挑战。
  2. 语言一致性奖励——此奖励确保模型的输出保持清晰一致的语言,解决在 DeepSeek-R1–Zero 中观察到的语言混合问题。

通过关注这两个奖励,DeepSeek-R1 可以对其输出进行微调,使其既精确又方便用户使用。强化学习阶段结束且模型收敛后,将创建一个检查点,标志着其训练流程下一阶段的开始。

深度探索ai

为 SFT 生成高质量训练数据

从第一个强化学习检查点开始,DeepSeek-R1 会经历一个数据细化过程,监督微调 (SFT) 做准备。此过程涉及整理高质量数据集,以进一步完善模型的推理和非推理能力。

  • 推理数据收集:

模型在 RL 阶段生成的预测被发送回DeepSeek-V3进行评估。此步骤可确保数据符合严格的标准:

  • 糟糕的输出,例如长篇大论的段落或混合语言的回应,都会被过滤掉。
  • 仅保留简洁、准确且结构良好的答复。

这产生了600,000 个与推理相关的样本的强大集合,旨在增强模型解决诸如解决问题和逻辑推理等复杂任务的能力。

  • 非推理数据收集:

对于推理之外的任务,例如创意写作、事实问答、翻译和自我认知,DeepSeek-V3 现有的 SFT 数据集被部分重用。选择了约200,000 个高质量的非推理样本,确保模型在各种应用中表现出色。

这些数据集共同构成了包含800,000 个样本的多样化、高质量训练语料库,为监督微调提供了基础。

深度探索ai

监督微调:完善模型

使用这个精选数据集,DeepSeek-R1经过两个阶段的监督微调 (SFT) 。此阶段的作用是:

• 完善模型的推理能力,确保输出合乎逻辑且简洁。

• 提高非推理任务(例如事实问答或翻译)的性能,以提供一致的顶级结果。

SFT 阶段消除了早期训练阶段的任何残留问题,使模型能够生成准确且用户友好的输出。

结合人类偏好的强化学习

在 SFT 阶段之后,DeepSeek-R1 进入第二强化学习 (RL)阶段,重点关注人类偏好。此阶段强调三个核心目标:

  1. 有用性:该模型因产生相关的、可操作的、并根据用户需求定制的响应而获得奖励。
  2. 无害:对整个输出进行评估,以最大限度地减少风险、偏见或潜在的有害内容。
  3. 响应的细化:对模型的总结和结论进行进一步微调,以确保清晰度、准确性和可用性。

通过将人类偏好融入训练过程,DeepSeek-R1 进化为更安全、更有效、更可靠的人工智能助手。

深度探索ai

最终结果:DeepSeek-R1

这个细致的训练流程的顶峰就是 DeepSeek-R1——该模型不仅在推理、编码和多语言任务等基准测试中领先,而且还为人工智能性能树立了新的标准。

通过先进的训练过程,DeepSeek-R1 在准确性、可读性和适应性之间实现了完美平衡,确保它可以轻松应对最艰巨的任务。这种精细化程度展示了现代人工智能系统的巨大潜力,突破了人工智能的极限。

DeepSeek-R1 的出色表现

经过多次迭代改进,DeepSeek-R1 已成为一款性能卓越的模型,在英语、编程挑战、数学问题甚至中文等多项基准测试中均表现出色,持续超越竞争对手,证明了 DeepSeek-R1 不仅性能强大,而且在 AI 开发中处于领先地位。

深度探索ai

蒸馏过程:更小的模型,更大的性能

DeepSeek-R1 的一个令人兴奋的功能是它能够将知识提炼成更小、更高效的模型。在提炼过程中,DeepSeek-R1 充当老师,为 Qwen 和 Llama 等较小的学生模型提供精心挑选的训练数据。这些模型虽然规模较小,但经过训练后,可以在编码和数学等任务中表现出色。

深度探索ai

例如,经过提炼的模型 DeepSeek-Llama-70B 在各种基准测试中均胜过许多竞争对手,展示了较小模型实现高效率和顶级性能的强大能力。

深度探索ai

小结:人工智能推理的未来

DeepSeek-R1 代表了人工智能发展的巨大飞跃。通过结合强化学习、混合专家架构和尖端训练技术,DeepSeek-R1 在人工智能推理和适应能力方面处于领先地位。凭借其在多个领域的卓越表现以及将知识提炼成更高效模型的能力,DeepSeek-R1 为人工智能的未来奠定了基础。

数据评估

深度探索ai浏览人数已经达到311,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:深度探索ai的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找深度探索ai的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于深度探索ai特别声明

本站非猪ai导航提供的深度探索ai都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由非猪ai导航实际控制,在2025年2月2日 下午1:57收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,非猪ai导航不承担任何责任。

相关导航

暂无评论

暂无评论...