大模型资讯收集

模型,资讯,收集 · 浏览次数 : 59

小编点评

**RISC-V 高性能全栈技术概述** **关键技术** * Vector1.0 * GemM * Power Scaling * FreeFormQA * AlteredNumericQA * LongChat Lines **主要优点** * 高性能 * 广义支持 * 低成本 * 可扩展性 **主要应用** * AI 增强 * 多语言语音处理 * 音视频处理 * 音乐创作 * 数据分析 **技术特点** * Vector1.0 用于计算多维向量。 * GemM 用于计算矩阵。 * Power Scaling 用于扩展模型的上下文长度。 * FreeFormQA 等用于问答任务。 * AlteredNumericQA 等用于关键值检索任务。 * LongChat Lines 等用于关键值检索任务。 **价值** * RISC-V 高性能全栈技术可用于多种 AI 增强应用。 * 它可以降低成本并提高效率。 * 它可扩展性,可以用于构建更大的 AI 模型。

正文

大模型材料收集

360安全大模型

推动大模型 B 端落地,360 想怎么做?

  • 企业安全智控系统
    • 安全问答
    • 安全运营
  • 通用大模型
    • 数据安全问问题
    • 专业知识缺乏
    • 成本控制难
  • 专业大模型
    • 垂直专业性
    • 安全合规性
    • 使用成本
    • 知识确权
  • B端:面向消费者
  • C端:面向商家

小米大模型

雷军:小米手机已跑通大模型,将投入 1000 亿坚持高端

  • 13亿参数在手机端,相当于60亿参数在云端
  • 小米大模型
    • 轻量化
    • 本地部署
  • 认知改变决策

加密货币中大模型

加密货币中的大语言模型

  • 大语言模型(LLMs):GPT-3.5
    • 法律推理(效果不好)
    • 起草(效果好)
  • 性能指标
    • 真正例数(TP):正确识别能力
    • 假正例数(FP):误报能力
    • 假反例数(FN):漏报能力

使用AIGC时的数据风险

企业使用AIGC时需要考虑的数据风险有哪些?

近期生成式人工智能工具的爆发与隐私立法的激增在美国和全球范围内同时发生。在美国,仅不到三年时间内就有13个州通过了全面的数据保护法律。在全球范围内,大多数发达国家在过去十年内都通过了新的或更严格的隐私法律。这些法律中许多都明确地规定了对人工智能应用的监管。因此将个人数据输入生成式人工智能工具并处理其输出中的个人数据,需要应对复杂的数据保护义务。

在这个复杂领域中存在三个关键问题:

  1. 首先是将个人数据披露给人工智能工具的问题。这些披露可能会导致雇主失去对数据的控制,甚至可能导致数据泄漏。
  2. 其次,生成式人工智能服务提供的数据可能是基于违反数据保护要求的数据处理和收集,例如未经通知和适当的合法基础。雇主可能要对这些违规行为承担一定的责任。
  3. 最后,在使用生成式人工智能服务时,雇主必须确定如何根据适用法律遵守行使数据权利的要求。
  • 将个人数据输入生成式人工智能相关的风险
    • 披露风险
    • 去标识化
  • 收集和处理输入数据相关的风险
    • 合法依据
    • 提前告知
    • 据转移
    • 在收集和处理AI输入数据方面的隐私风险的影响
  • 个人数据的使用和保留的相关风险
    • 删除权(要求模型去除个人信息,要去“遗忘”?)
    • 准确性(输出“幻觉”)
  • 总结
    • 使用AIGC之前,要考虑数据保护的影响
      • 数据来源和性质
      • 适用的数据保护法

稚晖君的“智元机器人”

前华为天才少年稚晖君创业6个月造出人形机器人,百亿参数大模型加持、目标成本20万元以内

  • 远征A1人形机器人
    • 智能机器人:软硬件结合的智能体
    • 搭载语言任务模型:WorkGPT
      • 庞大的先验知识库和强大的通识理解能力
      • 复杂语义多集推理能力(思维链,即CoT)
  • 人因梦想为伟大(好像雷busi)

AIGC的安全监管

安全与发展视角下的生成式人工智能监管

  • 《生成式人工智能服务管理暂行办法》(办法)
  • 潜在风险
    • 数据
      • 数据质量(训练语料、样本量等)
      • 数据保护机制(隐私信息防滥用、防泄漏)
      • 数据真实性(数据存在伪造和虚假认知)
    • 算法
      • 认知安全问题
    • 算力
      • 成本高
      • 生态匮乏
  • 要求
    • “审慎”安全管理
      • 技术研发
      • 提供服务
      • 外部监督
    • “分类分级”安全管理
      • 监管职能
      • 监管内容
      • 监管对象
  • AIGC数据要素发展
    • 生态发展
    • 创新合作
    • 基础资源
  • 《办法》的产业影响

数学大模型:MathGPT

千亿级、数学专用,MathGPT大模型开始公测了

在好未来 20 周年直播活动中,CTO 田密宣布好未来自研的数学领域千亿级大模型 MathGPT 开启内测。MathGPT 是面向全球数学爱好者和科研机构,以解题和讲题算法为核心的数学垂直领域的大模型,也是国内首个专为数学打造的大模型。

  • 免费使用申请:www.mathgpt.com

使用方式也很简单,用户使用 MathGPT 时,用文字或图片方式上传数学题,即可得到对话式的解答反馈,也可以通过 “随机来一题” 的按钮,随机生成数学题目并由系统给出解答。

图片

MathGPT 的数学计算能力已覆盖小学、初中、高中的数学题,题目类型涵盖计算题、应用题、代数题等多个类型,还可以针对题目进行追问。不过暂未开放数学之外的问答互动。

在 CEval-Math、AGIEval-Math、APE5K、CMMLU-Math、高考数学和 Math401 等 6 个公开数学评测集合的测试结果中,MathGPT 取得了多项测试的最高分数。同时,MathGPT 在 C-Eval 的初高中的全科测试集合上也均有不错的表现。

图片

解题稳定性、讲解友好度方面,MathGPT 基于海量名师解题过程的数据进行模型训练,模型的解题步骤专业清晰。

我们以一道数列题为例,MathGPT 给出的答案包含 “分析”、“详解”、“点睛” 三个部分,比通用大模型的粗略讲解方式更为细致。其中“分析” 提供了题目的解题思路、思考方式,帮助用户更好地理解题目;“详解” 则给出具体的计算方式和答案;最后 “点睛” 的环节对题目的考点、难点、关键点进行提示,帮助用户回顾反思出题意图、举一反三。

图片

MathGPT 能实现更高准确度的解题,也能把答案解析得更清楚、讲解得更明白,更好地满足用户使用 AI 产品解答数学问题的核心需求。

盘古大模型

盘古大模型介绍

2023年7月7日,华为开发者大会发布盘古大模型3.0,盘古大模型采用L0、L1、L2三层“5+N+X”架构。

L0层包括自然语言、视觉、多模态、预测、科学计算五个基础大模型,提供满足行业场景中的多种技能需求。盘古3.0可以提供100亿参数、380亿参数、710参数和1000亿参数的系列化基础大模型,匹配不同场景、不同时延、不同响应速度的行业多样化需求。同时提供全新能力集,包括NLP大模型的知识问答、文案生成、代码生成,以及多模态大模型的图像生成、图像理解等能力。 (基础大模型)

L1层是N个行业大模型,华为云提供使用行业公开数据训练的行业通用大模型,包括政务,金融,制造,矿山,气象等大模型;也可以基于行业客户的自有数据,在盘古大模型的L0和L1层上训练专有大模型。(领域大模型)

图片

L2层提供了更多细化场景的模型,更加专注于政务热线、网点助手、先导药物筛选、传送带异物检测、台风路径预测等具体行业应用或特定业务场景,其华为云盘古气象大模型研究成果在《Nature》正刊发表。提供“开箱即用”的模型服务。(专业大模型)

图片

华为盘古大模型不同领域不同场景下的应用:

  • 盘古采矿模型:盘古采矿模型已在中国8个煤矿得到应用。单个模型可以支持1000多个煤矿开采子场景,包括挖掘、驾驶、设备控制、运输、通风、洗煤等。它有助于建造更安全、更智能的煤矿。
  • 盘古铁路模型:铁路方面,盘古铁路模型可以准确识别67种货运车辆和430多种铁路以及鉴别货运车辆故障。盘古铁路模型可以快速扫描铁路TFDS系统捕获的数百万张图像,并过滤掉95%的无故障图像。通过这种方式,列车检查员可以专注于剩余的图像,这有助于他们提高效率和准确性。
  • 盘古气象模型:盘古气象模型(或盘古天气)是第一个在精度上超过最先进的数值天气预报(NWP)方法的人工智能模型。预测速度也快了几个数量级。过去,预测台风在10天内的轨迹需要在3000台服务器的高性能集群上进行4到5个小时的模拟。现在,盘古模型可以在单个服务器的单个GPU上在10秒内完成,并且结果更加准确。
  • 盘古金融模型:金融服务,盘古金融模型在包含银行政策、流程和案例研究数据的大型数据集上进行了预先训练,可以根据客户的服务请求自动为银行柜员生成正确的服务工作流程和指南。这有助于他们更有效、更自信地处理服务请求。从本质上讲,盘古金融模型为每个银行员工提供了自己的个人智能助手。
  • 盘古制造模型:制造业,在过去,为一条生产线制定一天的零件分配计划需要三个多小时。盘古制造模型经过华为自身生产线的零部件数据、业务流程和规则的预训练,能够准确理解意图。通过调用华为OptVerse AI Solver插件,盘古模型可以在1分钟内制定3天的生产计划
  • 盘古药物分子模型:医药研发,开发一种新药平均需要10年时间,耗资10亿美元。现在,盘古药物分子模型能够将先导化合物的发现从几年缩短到一个月,将药物研发成本降低70%。利用这个模型,由西安交通大学刘冰教授领导的团队最近发现了一种新的超级抗生素——这是40年来发现的第一种新型抗生素,具有全新的蛋白质靶点,并且属于自己的一类。

盘古大模型采用完全的分层解耦设计,客户既可以为自己的大模型加载独立的数据集,也可以单独升级基础模型,也可以单独升级能力集。在L0和L1大模型的基础上,华为云提供了大模型行业开发套件,通过对需求方自有数据的二次训练,可以获取专属行业大模型。同时,根据不同的数据安全与合规诉求,盘古大模型还提供了公用云、大模型云专区、混合云多样化的部署形态

通义千问

通义千问,又开源了!

阿里云推出大规模视觉语言模型Qwen-VL,开源。

Qwen-VL以通义千问70亿参数模型Qwen-7B为基座语言模型研发,支持图文输入,具备多模态信息理解能力。在主流的多模态任务评测多模态聊天能力评测中,Qwen-VL取得了远超同等规模通用模型的表现。

Qwen-VL是支持中英文等多种语言的视觉语言(Vision Language,VL)模型,相较于此前的VL模型,Qwen-VL除了具备基本的图文识别、描述、问答及对话能力之外,还新增了视觉定位、图像中文字理解等能力。

Qwen-VL及其视觉AI助手Qwen-VL-Chat均已上线ModelScope魔搭社区,开源、免费、可商用。

用户可从魔搭社区直接下载模型,也可通过阿里云灵积平台访问调用Qwen-VL和Qwen-VL-Chat。

阿里云开源通义千问多模态大模型 Qwen-VL

Qwen-VL 模型的训练分为三个阶段:

  • 在预训练阶段,团队主要利用大规模、弱标注的图像-文本样本对进行训练;
  • 在多任务训练阶段,团队整理了大量高质量多任务的细粒度图文标注数据进行混合训练,并升高了图像的输入分辨率,降低图像缩放引起的信息损失,增强模型对图像细节的感知能力,得到 Qwen-VL 预训练模型;
  • 在指令微调阶段,团队使用合成标注的对话数据进行指令微调,激发模型的指令跟随和对话能力,得到具有交互能力的 Qwen-VL-Chat 对话模型。

Qwen-VL 模型的研发难点主要体现在数据、训练、框架三个层面。数据方面,多模态的数据整理和清洗是个难点,有效的数据清洗可以提高训练效率以及提升最终收敛后的效果;训练方面,在多模态大模型的训练中,一般认为大 batch 和较大学习率可以提升训练收敛效率和最终结果,但其训练过程可能更加不稳定,通过一些训练技巧有效提升了训练稳定性;框架方面,目前多模态大模型的并行训练框架支持并不完善,通过对多模态大模型的 3D 并行技术进行了优化,可稳定训练更大规模的多模态模型。

  • Qwen-VL-Chat

Qwen-VL-Chat 是在 Qwen-VL 的基础上,使用对齐机制打造的基于大语言模型的视觉 AI 助手,可让开发者快速搭建具备多模态能力的对话应用。

  • 评估方式

其一是使用标准基准数据集来评测每个多模态子任务的效果。例如评测图片描述(Image Captioning)、图片问答(Visual Question Answering, VQA)、文档问答(Document VQA)、图表问答(Chart VQA)、少样本问答(Few-shot VQA)、参照物标注(Referring Expression Comprehension)等。其二是使用人工或借助 GPT-4 打分来评测多模态大模型的整体对话能力和对齐水平。通义千问团队构建了一套基于 GPT-4 打分机制的基准“试金石”( TouchStone),总计涵盖 300+张图片、800+ 道题目、27 个题目类别。

  • 多模态大模型开发难度

    • 模态间表征差异大:大规模纯语言模型的输入输出一般是离散表征,而图像、语音等内容通常是连续表征,其模态间的信息密度、表征空间、输入输出方式等都存在巨大差异,这导致了设计的复杂性。

    • 多模态大模型收敛不稳定:由于模态间表征差异大、各模态网络异构等因素,相比纯文本大模型,多模态大模型的训练具有更多的挑战,更有可能出现训练不稳定的情况。

    • 缺乏稳定开源框架支持:目前常见的开源大模型训练框架,都只对纯语言模型的训练效率进行了极致的优化。为了处理多模态输入输出,多模态模型通常有非对称的网络结构,导致无法直接用常见开源训练框架扩展到超大参数量。

行业大模型

大模型时代-行业落地的再思考

作者观点:坚定地支持通用大模型的,觉得行业大模型的前景堪忧。

  • 行业大模型:可以先简单定义为用行业数据重新训练、微调了一个通用大模型,来解决行业问题。
  • 通用大模型:
    • 从能力角度看,用简单的比喻可以把能力理解成智商。通用大模型很厉害的一点就是通过对大量通用知识的压缩,训练了一个智商超高的模型,正是因为模型智商超高,才能对大量不同的任务通过in context learning的方式一学就会。但随着通用大模型的能力越来越强,智商的降维打击会让「通用大模型对行业大模型也产生降维打击」
    • 从知识角度看,通用大模型看过多少数据就能压缩多少知识,对于没看过的领域数据,通用大模型没有这方面的知识是肯定的。所以,当你问大模型,XX棋局的第135手棋下在了哪儿时,它如果没见过就只能胡说八道。即使模型能力超强,也很难幻想出历史上两个人怎么下棋的完全过程。如果模型在使用行业数据微调(重新)训练时见过这方面的知识,就有可能回答出这样的问题。但我们需要通用大模型做的是知识查询类的事情吗?如果是的话,用外挂知识库的方法是不是更容易解决。行业大模型可能是「通用大模型能力不足时的阶段性产物」
  • 数据配比:用了大量的行业数据,模型怎么反而变弱了。首先通用数据和行业数据必须是用同样的标准做了高质量清洗和质量控制的,其次,1:1的数据比例大概率是一个很差的选择,行业数据的比例要在15%以下」,一旦超过这个阈值,模型的通用能力会下降很明显。

AI听键盘是识别密码

AI听键盘声识别密码,准确率高达95%?

最近,来自杜伦大学等三所高校的研究人员训练了个AI模型,让声学攻击变得无比简单,通过分析键盘声音,就能重构用户输入的密码和敏感信息。

绿盟安全大模型

官宣|绿盟安全大模型启动邀请测试

绿盟安全大模型是集绿盟科技二十余年网络安全深耕与十余年AI安全研究实践于一身的安全行业垂直领域大模型,是基于海量安全专业知识训练,构建的一套覆盖安全运营、检测响应、攻防对抗、知识提供等多种场景的网络安全运营辅助决策系统。

平头哥推出:RISC-V AI平台

平头哥推出首个 RISC-V AI 平台:软硬件深度协同,支持运行 170 余个主流 AI 模型

2023年8月23日,2023 RISC-V 中国峰会在北京召开。会上,平头哥发布首个自研 RISC-V AI 平台,通过软硬件深度协同,较经典方案提升超 8 成性能,支持运行 170 余个主流 AI 模型,推动 RISC-V 进入高性能 AI 应用时代。

  • RISC-V架构

RISC-V 架构开源、精简、可扩展性强,在此轮芯片产业周期中发展最为迅速。2022 年全球共生产 100 亿颗 RISC-V 芯片,有一半源于中国。中国工程院院士倪光南在大会致辞中表示,RISC-V 的未来在中国,而中国半导体芯片产业也需要 RISC-V,开源的 RISC-V 已成为中国业界最受欢迎的芯片架构。

  • 平头哥玄铁

平头哥玄铁 RISC-V 高性能全栈技术全新亮相,从处理器 IP 到芯片平台、编译器、工具链等软硬件技术全面升级,并实现 RISC-V 与 Debian、Ubuntu、安卓、OpenKylin、OpenHarmony、龙蜥、酷开 WebOS 等主流操作系统的深度适配,推动 RISC-V 持续向 2GHz 高性能应用演进。

  • C920芯片

平头哥宣布玄铁处理器全新升级,C920首次加入 Vector1.0,执行GEMM(矩阵的矩阵乘法)计算较Vector方案可提速15倍。平头哥更新自研一站式 AI 部署套件 HHB,在典型网络性能比第三方工具平均提升 88%,并增加支持运行 Transformer、TensorFlow、PyTorch 等 170 余个主流框架 AI 模型,让 RISC-V 真正成为 AI 算力的新选择。

  • 对接AI

平头哥发布了首个面向多媒体 AI 增强场景的 RISC-V 全栈软硬件平台。该平台将 RISC-V 扩展性的新型 Vector、Matrix 及第三方硬件进行算力抽象,创新接入 OpenCV 与 CSI-NN 等弹性计算库,深度融合多媒体处理流程,形成面向业务的流水线设计,方便用户在流水线的不同步骤上进行 AI 增强优化,为检测、分类、跟踪和超分等各类应用提速。这一平台也获评“2023RISC-V 中国峰会新成果”。

目前,RISC-V 高性能全栈技术在多领域展开规模化落地。平头哥携手合作伙伴,实现首个基于玄铁高性能芯片的安卓商业化项目落地,量产多款视频视觉类产品,推出云计算、智能电视等多场景应用。为吸引更多开发者,平头哥与合作伙伴联合推出玄铁系列开发板,内置玄铁处理器的 Lichee Pi4A、勘智 K230、华山派、BeagleV-Ahead 等已陆续上市。

鸭嘴兽-70B

波士顿大学「鸭嘴兽-70B」登顶Hugging Face大模型排行榜!高效数据集+独特LoRA微调是关键

鸭嘴兽大模型是波士顿大学的研究人员基于Llama2微调而来,目标是在提升性能的同时,使用更少的计算资源和数据,目前一个13B的鸭嘴兽模型可以在单个A100 GPU使用25k个问题在5小时内完成训练。

  • 研究鸭嘴兽70B变强的原因:https://arxiv.org/pdf/2308.07317.pdf

    • 编辑数据集:删除相似和重复的问题
      • 鸭嘴兽的数据集Open-Platypus
    • 使用LoRA和PEFT对模型进行了优化,重点关注非注意力模块
  • 检测测试数据泄露

  • 训练数据污染

听觉大模型SALMOMN

清华大学电子工程系日前与字节跳动的火山语音团队携手合作,推出一款开源大语言模型 SALMONN。SALMONN 模型支持语音、音频以及音乐输入,它可以感知和理解不同类型的音频内容输入,并具备多语言语音识别和翻译以及语音推理等功能

目前 SALMONN 能够胜任英语语音识别、英语到中文的语音翻译、情感识别、音频字幕生成、音乐描述等重要的语音和音频任务,同时又涌现出多种在模型训练中没有专门学习过的多语言和跨模态能力,涵盖非英语语音识别、英语到(中文以外)其他语言的语音翻译、对语音内容的摘要和关键词提取、基于音频的故事生成、音频问答、语音和音频联合推理等任务。

上下文长度达32k的开源可商用大模型

32k上下文可商用!羊驼进化成长颈鹿,“开源大模型之最”

长颈鹿”(Giraffe),基于130亿规模的Llama-2打造,根据上下文长度不同,长劲鹿家族最终一共有三个版本:4k、16k和32k。长颈鹿的作者来自Abacus.AI,这是一家搞AI数据科学平台的初创企业,成立于2019年,已完成5000万元C轮融资。

为了扩展开源模型的上下文长度,他们提出两种新方法:

  • Power Scaling,主要是修改原始的RoPE编码方式
  • Truncated Basis(截断),主要是修改原始的RoPE编码方式

另外还提出三个新的评估任务:FreeFormQA、AlteredNumericQA和LongChat Lines,其中前两个是一类,为问答任务,第三个为关键值检索任务,结果为:

  • 线性插值是最好的上下文长度外推方法。

  • 所有上下文长度外推方法都随着长度的增加,在任务准确性上出现了下降。

  • 通过在评估阶段使用比微调时更高的比例因子,可以进一步增加上下文长度,但比例因子似乎最多只能提高2倍。

与大模型资讯收集相似的内容:

大模型资讯收集

大模型材料收集 360安全大模型 推动大模型 B 端落地,360 想怎么做? 企业安全智控系统 安全问答 安全运营 通用大模型 数据安全问问题 专业知识缺乏 成本控制难 专业大模型 垂直专业性 安全合规性 使用成本 知识确权 B端:面向消费者 C端:面向商家 小米大模型 雷军:小米手机已跑通大模型,

Llama2-Chinese项目:5-推理加速

随着大模型参数规模的不断增长,在有限的算力资源下,提升模型的推理速度逐渐变为一个重要的研究方向。常用的推理加速框架包含lmdeploy、FasterTransformer和vLLM等。 一.lmdeploy推理部署 lmdeploy由上海人工智能实验室开发,推理使用C++/CUDA,对外提供pyth

使用 UCS(On-Premises) 管理您的GPU资源池,释放AI大模型算力潜能

UCS(On-Premises)旨在将云上的服务能力延伸至各行业的客户的本地数据中心,结合volcano的AI作业管理及智能调度能力、xGPU的GPU虚拟化能力,帮助用户快速在IDC构建云原生的AI基础设施,更细粒度的使用GPU资源,让用户聚焦AI的业务开发,最大限度释放AI大模型算力潜能。

使用腾讯元宝+markmap生成思维导图

AI可以帮助我们进行提炼和总结, 节省了大量搜索资料和查阅的时间,像上图这张思维导图,就是使用腾讯元宝大模型进行内容提炼,再使用markmap生成思维导图,下面讲解下详细实现步骤: 一、工具准备 腾讯元宝,腾讯出口的大语言模型,让他进行主题的提炼并生成我们想要的特定格式,访问地址:https://y

插件化工程R文件瘦身技术方案 | 京东云技术团队

随着业务的发展及版本迭代,客户端工程中不断增加新的业务逻辑、引入新的资源,随之而来的问题就是安装包体积变大,前期各个业务模块通过无用资源删减、大图压缩或转上云、AB实验业务逻辑下线或其他手段在降低包体积上取得了一定的成果。

[转帖]新中国第一台大型通用电子计算机:104机

新中国第一台大型通用电子计算机:104机 https://www.scei.org.cn/images/zhuanti/dqxdfh/gs15.html 成果简介 1958年8月1日,中国科学院计算技术研究所和北京有线电厂(国营738厂)根据苏联提供的M-3小型机技术资料制成的“八一”型通用电子管计

基于助听器开发的一种高效的语音增强神经网络

现代语音增强算法利用大量递归神经网络(RNNs)实现了显著的噪声抑制。然而,大型RNN限制了助听器硬件(hearing aid hardware,HW)的实际部署,这些硬件是电池供电的,运行在资源受限的微控制器单元(microcontroller units,MCU)上,内存和计算能力有限。在这项工

2.1 C/C++ 使用数组与指针

C/C++语言是一种通用的编程语言,具有高效、灵活和可移植等特点。C语言主要用于系统编程,如操作系统、编译器、数据库等;C语言是C语言的扩展,增加了面向对象编程的特性,适用于大型软件系统、图形用户界面、嵌入式系统等。C/C++语言具有很高的效率和控制能力,但也需要开发人员自行管理内存等底层资源,对于初学者来说可能会有一定的难度。

3.1 C/C++ 使用字符与指针

C/C++语言是一种通用的编程语言,具有高效、灵活和可移植等特点。C语言主要用于系统编程,如操作系统、编译器、数据库等;C语言是C语言的扩展,增加了面向对象编程的特性,适用于大型软件系统、图形用户界面、嵌入式系统等。C/C++语言具有很高的效率和控制能力,但也需要开发人员自行管理内存等底层资源,对于初学者来说可能会有一定的难度。

4.1 C/C++ 使用结构与指针

C/C++语言是一种通用的编程语言,具有高效、灵活和可移植等特点。C语言主要用于系统编程,如操作系统、编译器、数据库等;C语言是C语言的扩展,增加了面向对象编程的特性,适用于大型软件系统、图形用户界面、嵌入式系统等。C/C++语言具有很高的效率和控制能力,但也需要开发人员自行管理内存等底层资源,对于初学者来说可能会有一定的难度。