当前位置: 首页 > news >正文

LLMs之Llama-3:Llama-3.3的简介、安装和使用方法、案例应用之详细攻略

LLMs之Llama-3:Llama-3.3的简介、安装和使用方法、案例应用之详细攻略

目录

相关文章

LLMs之LLaMA:LLaMA的简介、安装和使用方法、案例应用之详细攻略

LLMs之LLaMA-2:LLaMA 2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略

LLMs之Llama-3:Llama 3的简介、安装和使用方法、案例应用之详细攻略

LLMs之llama3-from-scratch:llama3-from-scratch(从头开始利用pytorch来实现并解读LLaMA-3模型的每层代码)的简介、核心思路梳理

LLMs之Llama-3.1:Llama 3.1的简介、安装和使用方法、案例应用之详细攻略

MLM之Llama-3:Llama 3.2的简介、安装和使用方法、案例应用之详细攻略

LLMs之Llama-3:Llama-3.3的简介、安装和使用方法、案例应用之详细攻略

Llama-3.3的简介

1、Meta Llama 3.3 的模型信息

2、特点

3、基准测试

4、伦理考量和局限性

Llama-3.3的安装和使用方法

1、安装

2、使用方法

使用llama

工具使用 (Tool use with transformers)

使用bitsandbytes

3、责任与安全

Llama 3.3的案例应用


相关文章

LLMs之LLaMA:LLaMA的简介、安装和使用方法、案例应用之详细攻略

LLMs之LLaMA:LLaMA的简介、安装和使用方法、案例应用之详细攻略_chinese_calendar每年手动更新-CSDN博客

LLMs之LLaMA-2:LLaMA 2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略

LLMs之LLaMA-2:LLaMA-2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略_llama2-CSDN博客

LLMs之Llama-3:Llama 3的简介、安装和使用方法、案例应用之详细攻略

LLMs之Llama 3:Llama 3的简介、安装和使用方法、案例应用之详细攻略-CSDN博客

LLMs之llama3-from-scratch:llama3-from-scratch(从头开始利用pytorch来实现并解读LLaMA-3模型的每层代码)的简介、核心思路梳理

https://yunyaniu.blog.csdn.net/article/details/139078566

LLMs之Llama-3.1:Llama 3.1的简介、安装和使用方法、案例应用之详细攻略

LLMs之Llama 3.1:Llama 3.1的简介、安装和使用方法、案例应用之详细攻略-CSDN博客

MLM之Llama-3:Llama 3.2的简介、安装和使用方法、案例应用之详细攻略

MLM之Llama-3:Llama 3.2的简介、安装和使用方法、案例应用之详细攻略_llama 3.2安装教程-CSDN博客

LLMs之Llama-3:Llama-3.3的简介、安装和使用方法、案例应用之详细攻略

LLMs之Llama-3:Llama-3.3的简介、安装和使用方法、案例应用之详细攻略-CSDN博客

Llama-3.3的简介

2024年12月6日,Meta发布,Llama 3.3是一个70B参数的多语言大型语言模型(LLM),经过预训练和指令微调,支持多种语言的文本输入和输出,在常见行业基准测试中优于许多开源和闭源聊天模型。经过精心设计,在多个基准测试中表现出色,并具有明确的许可协议和反馈机制。

Meta Llama 3.3是一个强大的多语言大型语言模型,在多个基准测试中表现出色。它具有广泛的应用前景,但同时也存在一些伦理和安全方面的挑战。Meta 采取了多项措施来确保模型的安全性和负责任的使用,包括采用三管齐下的安全策略、进行全面的红队测试、提供多种工具和资源,以及积极参与开源社区。开发人员在使用Llama 3.3时,需要遵守许可协议,注意其使用范围和局限性,并进行必要的安全测试和微调,以确保其应用的安全性和可靠性。 模型的开放性、包容性和有用性是其核心价值观,但同时也需要持续关注和改进,以最大限度地减少潜在风险。

总而言之,Llama 3.3 70B 模型是一个高性能、低成本、多语言、注重安全性的生成式 AI 模型,在教育、软件开发和企业应用等多个领域具有广泛的应用前景。

HuggingFace;https://huggingface.co/meta-llama/Llama-3.3-70B-Instruct

官网:https://www.llama.com/docs/overview/

GitHub:llama-models/models/llama3_3/MODEL_CARD.md at main · meta-llama/llama-models · GitHub

1、Meta Llama 3.3 的模型信息

>> 模型架构:基于优化的Transformer架构的自回归语言模型,微调版本使用监督微调(SFT)和基于人类反馈的强化学习(RLHF)来对齐人类对有用性和安全性的偏好。

>> 训练数据:使用了公开可用的在线数据混合集,包含超过15万亿个token。截止日期为2023年12月。支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。模型使用了分组查询注意力(GQA)以提高推理的可扩展性。

>> 模型发布日期:70B指令微调版本:2024年12月6日。这是一个基于离线数据集训练的静态模型,未来版本将随着社区反馈改进模型安全性而发布。

>> 许可证:采用自定义商业许可证——Llama 3.3社区许可协议 (https://github.com/meta-llama/llama-models/blob/main/models/llama3_3/LICENSE)。

2、特点

Llama 3.3适用于多种语言的商业和研究用途。指令微调的纯文本模型适用于类似助手的聊天,而预训练模型可以适应各种自然语言生成任务。Llama 3.3模型还支持利用其模型的输出改进其他模型,包括合成数据生成和蒸馏。Llama 3.3社区许可证允许这些用例。

>> 微调数据:采用多方面的方法收集数据,结合来自供应商的人工生成数据和合成数据,以减轻潜在的安全风险。

>> 强大的性能,成本更低:Llama 3.3 70B 模型的性能与 Meta Llama 405B 模型相似,但成本更低,使高质量的生成式 AI 能够惠及更广泛的受众。

>> 改进的输出:能够生成逐步推理和准确的 JSON 响应,以满足结构化数据需求。

>> 扩展的语言支持:支持八种主要语言,包括英语、法语、印地语和泰语等,具有多语言能力。

>> 增强的编码能力:涵盖更多编程语言,改进错误处理,并提供详细的代码反馈。

>> 任务感知工具使用:更智能的工具调用,尊重预定义参数并避免不必要的调用。

>> 新功能:本版本引入了新功能,包括更长的上下文窗口多语言输入和输出以及开发人员与第三方工具的集成。

>> 评估:对Llama模型进行了常见用例和特定功能的评估。常见用例评估衡量了大多数常用应用程序(包括聊天机器人、编码助手、工具调用)系统的安全风险。

>> 红队测试:进行了反复的红队测试,目的是通过对抗性提示发现风险,并利用这些经验来改进基准测试和安全微调数据集。

>> 注重责任:Meta 的安全协议确保模型不仅强大,而且符合道德 AI 标准。内置安全防护措施,例如 Llama Guard 3 和 Prompt Guard,可防止滥用。

>> 开源合作:Meta积极参与开放联盟,包括AI联盟、人工智能合作组织和MLCommons,积极为安全标准化和透明度做出贡献。

>> 社区资源:提供了一套资源,包括输出报告机制和漏洞赏金计划,以在社区的帮助下不断改进Llama技术。

>> 其他语言支持:Llama 3.3已在比8种支持语言更广泛的语言集合上进行了预训练。开发者可以对Llama 3.3模型进行微调以支持这8种语言之外的语言,前提是他们遵守Llama 3.3社区许可证和《可接受使用政策》,在这种情况下,开发者有责任确保在其他语言中使用Llama 3.3的方式安全可靠。

3、基准测试

指令微调模型:列出了Llama 3.3与之前模型在多个基准测试上的结果比较,包括MMLU、Steerability、Reasoning、Code、Math和Multilingual等方面。

4、伦理考量和局限性

>> 核心价值观:Llama 3.3的核心价值观是开放性、包容性和有用性。

>> 潜在风险:Llama 3.3是一项新技术,与任何新技术一样,其使用也存在风险。迄今为止进行的测试并未涵盖所有场景,模型在某些情况下可能会产生不准确、有偏差或其他令人反感的回应。

>> 开发人员责任:在部署任何Llama 3.3模型应用程序之前,开发人员应进行针对其特定模型应用程序的安全测试和微调。

Llama-3.3的安装和使用方法

1、安装

>> 使用Transformers:提供了使用Transformers库 (版本>=4.45.0) 进行对话式推理的代码示例,包括使用pipeline和Auto类以及generate()函数。

>> 训练因素:使用自定义训练库、Meta的定制GPU集群和生产基础设施进行预训练。微调、标注和评估也在生产基础设施上进行。

>> 训练能耗:在H100-80GB(TDP为700W)类型的硬件上使用了累计3930万GPU小时的计算量。表格中列出了训练时间、训练功耗、基于位置的温室气体排放量和基于市场的温室气体排放量。

>> 训练数据:预训练数据来自公开来源,约15万亿个token。微调数据包括公开可用的指令数据集以及超过2500万个合成生成的示例。预训练数据的截止日期为2023年12月。

2、使用方法

提供了使用Llama 3.3模型的不同方法,包括使用流行的深度学习库Transformers和bitsandbytes进行高效的推理和内存优化,以及使用原始llama代码库的方法。

使用llama

建议遵循代码库中的说明。提供了使用huggingface-cli下载原始检查点的命令示例。

import transformers
import torchmodel_id = "meta-llama/Llama-3.3-70B-Instruct"pipeline = transformers.pipeline("text-generation",model=model_id,model_kwargs={"torch_dtype": torch.bfloat16},device_map="auto",
)messages = [{"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"},{"role": "user", "content": "Who are you?"},
]outputs = pipeline(messages,max_new_tokens=256,
)
print(outputs[0]["generated_text"][-1])

工具使用 (Tool use with transformers)

支持多种工具使用格式,并提供了使用Transformers的聊天模板进行工具调用的示例,包括定义工具、创建聊天和应用聊天模板,以及处理模型生成的工具调用和结果。

# First, define a tool
def get_current_temperature(location: str) -> float:"""Get the current temperature at a location.Args:location: The location to get the temperature for, in the format "City, Country"Returns:The current temperature at the specified location in the specified units, as a float."""return 22.  # A real function should probably actually get the temperature!# Next, create a chat and apply the chat template
messages = [{"role": "system", "content": "You are a bot that responds to weather queries."},{"role": "user", "content": "Hey, what's the temperature in Paris right now?"}
]inputs = tokenizer.apply_chat_template(messages, tools=[get_current_temperature], add_generation_prompt=True)

你可以像平常一样从这个输入生成文本。如果模型生成了一个工具调用,你应该像这样将其添加到聊天中:

tool_call = {"name": "get_current_temperature", "arguments": {"location": "Paris, France"}}
messages.append({"role": "assistant", "tool_calls": [{"type": "function", "function": tool_call}]})

然后调用该工具,并将结果附加到其中,就像这样:

messages.append({"role": "tool", "name": "get_current_temperature", "content": "22.0"})

在此之后,您可以再次生成(),让模型在聊天中使用工具的结果。请注意,这只是对工具调用非常简要的介绍——如需了解更多信息,请参阅LLaMA提示格式文档和Transformers工具使用文档。

使用bitsandbytes

可以使用bitsandbytes和Transformers库对模型进行8位和4位量化,以优化内存使用。提供了相应的代码示例。

import torch
from transformers import AutoModelForCausalLM, AutoTokenizermodel_id = "meta-llama/Llama-3.3-70B-Instruct"
quantization_config = BitsAndBytesConfig(load_in_8bit=True)quantized_model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto", torch_dtype=torch.bfloat16, quantization_config=quantization_config)tokenizer = AutoTokenizer.from_pretrained(model_id)
input_text = "What are we having for dinner?"
input_ids = tokenizer(input_text, return_tensors="pt").to("cuda")output = quantized_model.generate(**input_ids, max_new_tokens=10)print(tokenizer.decode(output[0], skip_special_tokens=True))

3、责任与安全

>> 负责任的发布方法:采用了三管齐下的策略来管理信任和安全风险:使开发人员能够为其目标受众和Llama支持的用例部署有用、安全和灵活的体验;保护开发人员免受试图利用Llama功能造成潜在危害的恶意用户的攻击;为社区提供保护,以帮助防止滥用我们的模型。

>> 负责任的部署:Llama是一个基础技术,设计用于各种用例。Meta的Llama模型的负责任部署示例可以在其社区故事网页上找到。

>> Llama 3.3指令微调:安全微调的主要目标是为研究界提供一个宝贵的资源,用于研究安全微调的稳健性,并为开发人员提供一个随时可用、安全且强大的模型,用于各种应用程序,以减少开发人员部署安全AI系统的工作量。

Llama 3.3的案例应用

持续更新中……

>> 教育领域:为学生和教育工作者提供多语言 AI 助手。

>> 软件开发领域:通过准确的代码辅助来提高生产力。

>> 企业应用:简化客户支持、数据分析和内容生成。

相关文章:

LLMs之Llama-3:Llama-3.3的简介、安装和使用方法、案例应用之详细攻略

LLMs之Llama-3:Llama-3.3的简介、安装和使用方法、案例应用之详细攻略 目录 相关文章 LLMs之LLaMA:LLaMA的简介、安装和使用方法、案例应用之详细攻略 LLMs之LLaMA-2:LLaMA 2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途…...

OpenCV函数及其应用

1. 梯度处理的Sobel算子函数 功能 Sobel算子是一种用于边缘检测的离散微分算子,它结合了高斯平滑和微分求导,用于计算图像亮度的空间梯度。 参数 src:输入图像。 dst:输出图像。 ddepth:输出图像的深度。 dx&#xff…...

vulnhub靶场【DriftingBlues】之3

前言 靶机:DriftingBlues-3,IP地址192.168.1.60 攻击:kali,IP地址192.168.1.16 都采用虚拟机,网卡为桥接模式 主机发现 使用arp-scan -l或netdiscover -r 192.168.1.1/24 信息收集 使用nmap扫描端口 网站探测 访…...

文件上传—阿里云OSS对象存储

目录 一、OSS简介 二、OSS基本使用 1. 注册账号 2. 基本配置 (1) 开通OSS (2) 创建存储空间 (3) 修改权限 (4) 配置完成,上传一张图片,检验是否成功。 (5) 创建AccessKey 三、Java项目集成OSS 1. 导入依赖 2. Result.java代码: …...

mybatis-plus超详细讲解

mybatis-plus (简化代码神器) 地址:https://mp.baomidou.com/ 目录 mybatis-plus 简介 特性 支持数据库 参与贡献 快速指南 1、创建数据库 mybatis_plus 2、导入相关的依赖 3、创建对应的文件夹 4、编写配置文件 5、编写代码 …...

【Linux】--- 进程的概念

【Linux】--- 进程的概念 一、进程概念二、PCB1.什么是PCB2.什么是task_struct(重点!)3.task_struct包含内容 三、task_struct内容详解1.查看进程(1)通过系统目录查看(2)通过ps命令查看&#xf…...

Unity NTPComponent应用, 实现一个无后端高效获取网络时间的组件

无后端高效获取网络时间的组件 废话不多说,直接上源码m_NowSerivceTime 一个基于你发行游戏地区的时间偏移, 比如北京时区就是 8, 巴西就是-3,美国就是-5using Newtonsoft.Json; 如果这里报错, 就说明项目没有 NewtonsoftJson插件…...

go语言使用zlib压缩[]byte

在Go语言中,可以使用compress/flate和compress/zlib包来实现对[]byte数据的Zlib压缩。下面是一个简单的示例,展示如何使用这些包来压缩一个字节切片: go package main import ( "bytes" "compress/zlib" "fmt"…...

Windows 配置 Tomcat环境

Windows配置Tomcat 1. 介绍 Tomcat是一个开源的、轻量级的Java应用服务器,在Java Web开发领域应用广泛。以下是关于它的详细介绍: 一、基本概念与背景 定义:Tomcat是Apache软件基金会(Apache Software Foundation)下…...

【python从入门到精通】-- 第六战:列表和元组

🌈 个人主页:白子寰 🔥 分类专栏:重生之我在学Linux,C打怪之路,python从入门到精通,数据结构,C语言,C语言题集👈 希望得到您的订阅和支持~ 💡 坚持…...

Python | 数据可视化中常见的4种标注及示例

在Python的数据可视化中,标注(Annotation)技术是一种非常有用的工具,它可以帮助用户更准确地解释图表中的数据和模式。在本文中,将带您了解使用Python实现数据可视化时应该了解的4种标注。 常见的标注方式 文本标注箭…...

LearnOpenGL学习(高级OpenGL -> 高级GLSL,几何着色器,实例化)

完整代码见:zaizai77/Cherno-OpenGL: OpenGL 小白学习之路 高级GLSL 内建变量 顶点着色器 gl_PointSoze : float 输出变量,用于控制渲染 GL_POINTS 型图元时,点的大小。可用于粒子系统。将其设置为 gl_Position.z 时,可以使点…...

Scala学习记录

dao --------> 数据访问 mode ------> 模型 service ---->业务逻辑 Main -------> UI:用户直接操作,调用Service 改造UI层:...

vue使用pdfh5.js插件,显示pdf文件白屏

pdfh5,展示文件白屏,无报错 实现效果图解决方法(降版本)排查问题过程发现问题查找问题根源1、代码写错了?2、预览文件流的问题?3、pdfh5插件更新了,我的依赖包没更新?4、真相大白 彩蛋 实现效果图 解决方法…...

docker login 出错 Error response from daemon

在自己的Linux服务器尝试登陆docker出错 输入完用户密码之后错误如下: 解决方案 1.打开daemo文件: vim/etc/docker/daemon.json 2.常用的国内Docker 镜像源地址 网易云 Docker 镜像:http://hub-mirror.c.163.com 百度云 Docker 镜像&#x…...

Web 身份认证 --- Session和JWT Token

Web 身份认证 --- Session和JWT Token 方法一: 通过使用Session进行身份认证方法二: 通过JWT token进行身份认证什么是JWTJWT完整流程JWT攻防JWT 如何退出登录JWT的续签 方法一: 通过使用Session进行身份认证 用户第一次请求服务器的时候,服务器根据用户提交的相关信…...

UE5制作倒计时功能

设置画布和文本 文本绑定 格式化时间 转到事件图表,计算时间,时间结束后面的事件可以按自己需求写 进入关卡蓝图,添加倒计时UI...

Linux去除注释和空行

平时查看某些配置文件的时,我们会发现有很多注释(如:"#"开头的行),中间还有很多空行,看起来非常费劲,所以在这里总结下如何去除注释和空行的方法。 举例说明 这里选个简单点的文件&a…...

Elasticsearch 7.x入门学习-Spring Data Elasticsearch框架

1 Spring Data框架 Spring Data 是一个用于简化数据库、非关系型数据库、索引库访问,并支持云服务的开源框架。其主要目标是使得对数据的访问变得方便快捷,并支持 map-reduce 框架和云计算数据服务。 Spring Data 可以极大的简化 JPA的写法,…...

网络层IP协议(TCP)

IP协议: 在了解IP协议之前,我们市面上看到的"路由器"其实就是工作在网络层。如下图: 那么网络层中的IP协议究竟是如何发送数据包的呢? IP报头: IP协议的报头是比较复杂的,作为程序猿只需要我们重…...

计算机视觉中的边缘检测算法

摘要: 本文全面深入地探讨了计算机视觉中的边缘检测算法。首先阐述了边缘检测的重要性及其在计算机视觉领域的基础地位,随后详细介绍了经典的边缘检测算法,包括基于梯度的 Sobel 算子算法、Canny 边缘检测算法等,深入剖析了它们的…...

js 常用扩展方法总结+应用

文章目录 js 常用扩展方法总结扩展方法应用选择大型项目 中扩展方法应用选择小型项目中 扩展应用 js 常用扩展方法总结 函数原型(prototype)扩展方法 介绍:在JavaScript中,通过修改函数的prototype属性可以为该函数创建的所有对象…...

数据结构---图(Graph)

图(Graph)是一种非常灵活且强大的数据结构,用于表示实体之间的复杂关系。在图结构中,数据由一组节点(或称为顶点)和连接这些节点的边组成。图可以用于表示社交网络、交通网络、网络路由等场景。 1. 基本概…...

前端解析超图的iserver xml

前端解析超图的iserver xml const res await axios.get(url)const xmlDom new DOMParser().parseFromString(res.data, text/xml);// 获取versionconst version xmlDom.getElementsByTagNameNS(*, ServiceTypeVersion)[0].textContent// 获取layerconst layerDom xmlDom.ge…...

LocalForage 使用指南:统一管理 LocalStorage、WebSQL 和 IndexedDB

前言 在前端开发中,客户端数据存储是一个至关重要的环节。无论是用户偏好设置、缓存内容,还是表单数据,都需要一个高效、可靠的存储方案。浏览器原生提供的 LocalStorage、SessionStorage 和 IndexedDB 等 API 虽然功能强大,但使…...

代码随想录算法训练营第五天-哈希-242.有效的字母异位词

这道题的总体感觉不是很难&#xff0c;但是其完成的思想还是很有趣的利用数据下标来代表字母序列然后遍历两个字符串每个字符&#xff0c;给对应字母下标的数组中一个自增&#xff0c;另一个自减通过查看最后的数组内容是不是0&#xff0c;来判断是不是异位词 #include <io…...

学习maven(maven 项目模块化,继承,聚合)

前言 本篇博客的核心&#xff1a;理解maven 项目模块化&#xff0c;继承&#xff0c;聚合 的含义 maven 项目模块化 含义 maven项目模块化&#xff1a;使用maven 构建项目&#xff0c;管理项目的方式&#xff0c;我们可以将maven项目根据内在的关系拆分成很多个小项目【模块】…...

KDD 2025预讲会:10位一作的论文分享与话题思辨|12月18日全天直播

点击蓝字 关注我们 AI TIME欢迎每一位AI爱好者的加入&#xff01; 圆桌思辨&#xff1a;一作们的KDD 2025投稿经验分享与热点探讨 1. KDD 2025 与往年相比有哪些新变化&#xff1f;两次投稿周期的新规则有哪些影响&#xff1f; 2. 第一篇KDD的工作是如何成功被接收的&#xff1…...

掌握特征提取:机器学习中的 PCA、t-SNE 和 LDA模型

文章目录 一、说明二、既然有 PCA 技术降维&#xff0c;为什么还要学习 t-SNE&#xff1f;2.1 t-SNE的核心思想&#xff1a;2.2 保持点之间的局部关系有什么意义&#xff1f;2.3 t-SNE 的几何直觉&#xff1a; 三、t-SNE 的数学公式&#xff1a;四、目标函数&#xff1a;五、梯…...

JAVA基础:注释

JAVA基础:注释 作用 使得代码中的一段文本不被执行,起到解释说明的作用。 分类 JAVA中的注释有三种: 单行注释 //单行注释多行注释 /* 多 行 注 释 */文档注释 /***@deprecated comments* @author lhy*/文档注释可以添加一些参数作为说明。 有趣的代码注释 卡车/* * *…...