跟《经济学人》学英文:2024年08月10日这期 How AI models are getting smarter
How AI models are getting smarter
Deep neural networks are learning diffusion and other tricks
原文:
Type in a question to ChatGPT and an answer will materialise. Put a prompt
into DALL-E 3 and an image will emerge. Click on TikTok’s “for you” page and
you will be fed videos to your taste. Ask Siri for the weather and in a
moment it will be spoken back to you.
在ChatGPT上输入一个问题,答案就会出现。在DALL-E 3上输入一个提示,就会出现一个图像。点击抖音的“为你”页面,你会看到符合你口味的视频。向Siri询问天气,一会儿它就会回答你。
学习:
type in: 键入;输入;
materialize: 具体化
原文:
All these things are powered by artificial-intelligence (AI) models. Most rely
on a neural network, trained on massive amounts of information—text,
images and the like—relevant to how it will be used. Through much trial and
error the weights of connections between simulated neurons are tuned on the
basis of these data, akin to adjusting billions of dials until the output for a
given input is satisfactory.
所有这些都是由人工智能(AI)模型驱动的。大多数依赖于一个神经网络,在大量信息——文本、图像等——上接受训练,这些信息与它将如何被使用有关。通过反复试验,模拟神经元之间的连接权重根据这些数据进行调整,类似于调整数十亿个转盘,直到给定输入的输出令人满意
学习:
and the like:诸如此类的东西;等等;
dials:美 [ˈdaɪəlz] 拨号盘;刻度盘;转盘;(dial的复数)
原文:
There are many ways to connect and layer neurons into a network. A series
of advances in these architectures has helped researchers build neural
networks which can learn more efficiently and which can extract more
useful findings from existing datasets, driving much of the recent progress in
AI.
有许多方法可以将神经元连接和分层成一个网络。这些架构中的一系列进展帮助研究人员建立了神经网络,这些网络可以更有效地学习,并可以从现有数据集中提取更多有用的发现,推动了人工智能的许多最新进展。
原文:
Most of the current excitement has been focused on two families of models:
large language models (LLMs) for text, and diffusion models for images. These
are deeper (ie, have more layers of neurons) than what came before, and are
organised in ways that let them churn quickly through reams of data.
目前最令人兴奋的是两类模型:文本的大型语言模型(LLM)和图像的扩散模型。这些比以前的更深(即有更多层的神经元),而且组织方式让它们可以快速处理大量数据。
学习:
reams of data:大量数据
“Ream” 在这里指大量的数据。
- 例子:大型语言模型能够处理大量的数据,从而进行有效的训练。(Large language models can process reams of data, enabling effective training.)
churn: 大量处理数据
“Churn” 在这里表示快速处理或大量处理数据。
- 例子:高级机器学习算法可以快速处理大量的数据。(Advanced machine learning algorithms can churn through vast amounts of data quickly.)
原文:
LLMs—such as GPT, Gemini, Claude and Llama—are all built on the so-called
transformer architecture. Introduced in 2017 by Ashish Vaswani and his
team at Google Brain, the key principle of transformers is that of “attention”.
An attention layer allows a model to learn how multiple aspects of an input
—such as words at certain distances from each other in text—are related to
each other, and to take that into account as it formulates its output. Many
attention layers in a row allow a model to learn associations at different
levels of granularity—between words, phrases or even paragraphs. This
approach is also well-suited for implementation on graphics-processing unit
(GPU) chips, which has allowed these models to scale up and has, in turn,
ramped up the market capitalisation of Nvidia, the world’s leading GPU-maker.
LLM——如GPT, Gemini, Claude and Llama——都是建立在所谓的transformer 架构上的。2017年,Ashish Vaswani和他在谷歌大脑的团队推出了transformer 的关键原则是“注意力”。注意力层允许模型了解输入的多个方面(例如文本中彼此相距一定距离的单词)是如何相互关联的,并在制定输出时考虑到这一点。一行中的许多注意力层允许模型学习不同粒度级别的关联——单词、短语甚至段落之间的关联。这种方法也非常适合在图形处理单元(GPU)芯片上实施,这使得这些模型可以扩大规模,从而增加了全球领先的GPU制造商英伟达的市值。
学习:
Gemini:美 [ˈdʒɛməˌnaɪ] 双子座;双子宫(黄道第3宫)
granularity:美 [grænjʊ’lærɪtɪ] 粒度
market capitalization:市值
ramp up:提高
原文:
Transformer-based models can generate images as well as text. The first
version of DALL-E, released by OpenAI in 2021, was a transformer that learned
associations between groups of pixels in an image, rather than words in a
text. In both cases the neural network is translating what it “sees” into
numbers and performing maths (specifically, matrix operations) on them.
But transformers have their limitations. They struggle to learn consistent
world-models. For example, when fielding a human’s queries they will
contradict themselves from one answer to the next, without any
“understanding” that the first answer makes the second nonsensical (or vice
versa), because they do not really “know” either answer—just associations
of certain strings of words that look like answers.
基于Transformer的模型可以生成图像和文本。OpenAI在2021年发布的DALL-E的第一个版本是一个transformer ,它学习图像中像素组之间的关联,而不是文本中的单词。在这两种情况下,神经网络都将其“看到的”转化为数字,并对其进行数学运算(具体来说,就是矩阵运算)。但是transformer有其局限性。他们很难是一致的世界模型。例如,当回答一个人的问题时,他们会从一个答案到下一个答案自相矛盾,而没有任何“理解”第一个答案使第二个答案变得无意义(反之亦然),因为他们并不真正“知道”任何一个答案——只是看起来像答案的某些字符串的关联。
原文:
And as many now know, transformer-based models are prone to so-called
“hallucinations” where they make up plausible-looking but wrong answers,
and citations to support them. Similarly, the images produced by early
transformer-based models often broke the rules of physics and were
implausible in other ways (which may be a feature for some users, but was a
bug for designers who sought to produce photo-realistic images). A different
sort of model was needed.
正如许多人现在所知道的,基于transformer的模型容易产生所谓的“幻觉”,他们编造看似合理但错误的答案,以及支持这些答案的引文。类似地,早期基于transformer的模型生成的图像通常打破了物理规则,在其他方面也不可信(这可能是一些用户的一个功能,但对于寻求生成照片级逼真图像的设计师来说是一个缺陷)。需要一种不同的模式。
学习:
prone to: 容易发生;容易出现;易于;倾向于
plausible-looking:看似合理的
photo-realistic:照片般逼真
Not my cup of tea
原文:
Enter diffusion models, which are capable of generating far more realistic
images. The main idea for them was inspired by the physical process of
diffusion. If you put a tea bag into a cup of hot water, the tea leaves start to
steep and the colour of the tea seeps out, blurring into clear water. Leave it
for a few minutes and the liquid in the cup will be a uniform colour. The
laws of physics dictate this process of diffusion. Much as you can use the
laws of physics to predict how the tea will diffuse, you can also reverse-
engineer this process—to reconstruct where and how the tea bag might first
have been dunked. In real life the second law of thermodynamics makes this
a one-way street; one cannot get the original tea bag back from the cup. But
learning to simulate that entropy-reversing return trip makes realistic image
generation possible.
进入扩散模型,它能够生成更真实的图像。他们的主要想法受到了扩散的物理过程的启发。如果你把茶包放进一杯热水中,茶叶开始浸泡,茶的颜色渗出,模糊清澈的水。让它保持几分钟,杯子里的液体就会变成均匀的颜色。物理定律决定了这一扩散过程。就像你可以用物理定律来预测茶叶如何扩散一样,你也可以逆向工程这个过程——重建茶包可能在哪里以及如何第一次被浸泡。在现实生活中,热力学第二定律使这成为不可逆的;人们无法从杯中取回原来的茶包。但是,学会模拟熵反转的回程,就有可能产生真实的影像。
学习:
tea bag:袋泡茶;茶包;泡茶用的茶包;一袋茶叶
thermodynamics:美 [ˌθərmoʊdaɪˈnæmɪks] 热力学
原文:
Training works like this. You take an image and apply progressively more
blur and noise, until it looks completely random. Then comes the hard part:
reversing this process to recreate the original image, like recovering the tea
bag from the tea. This is done using “self-supervised learning”, similar to
how LLMs are trained on text: covering up words in a sentence and learning to
predict the missing words through trial and error. In the case of images, the
network learns how to remove increasing amounts of noise to reproduce the
original image. As it works through billions of images, learning the patterns
needed to remove distortions, the network gains the ability to create entirely
new images out of nothing more than random noise.
训练是这样的。你拍摄一张图像,并逐渐应用更多的模糊和噪声,直到它看起来完全随机。接下来是困难的部分:反转这个过程来重新创建原始图像,就像从茶叶中恢复茶袋一样。这是通过“自监督学习”完成的,类似于LLM如何在文本上训练:覆盖句子中的单词,并通过试错学习预测缺失的单词。在图像的情况下,网络学习如何去除越来越多的噪声以再现原始图像。随着它处理数十亿张图像,学习消除失真所需的模式,网络获得了完全从随机噪声中创建全新图像的能力。
学习:
distortions:扭曲;变形;曲解;失真;(distortion的复数)
原文:
Most state-of-the-art image-generation systems use a diffusion model,
though they differ in how they go about “de-noising” or reversing
distortions. Stable Diffusion (from Stability AI) and Imagen, both released in
2022, used variations of an architecture called a convolutional neural
network (CNN), which is good at analysing grid-like data such as rows and
columns of pixels. CNNs, in effect, move small sliding windows up and down
across their input looking for specific artefacts, such as patterns and corners.
But though CNNs work well with pixels, some of the latest image-generators
use so-called diffusion transformers, including Stability AI’s newest model,
Stable Diffusion 3. Once trained on diffusion, transformers are much better
able to grasp how various pieces of an image or frame of video relate to each
other, and how strongly or weakly they do so, resulting in more realistic
outputs (though they still make mistakes).
大多数最先进的图像生成系统使用扩散模型,尽管它们在如何“去噪”或逆转失真方面有所不同。2022年发布的Stability Diffusion(来自Stability AI)和Imagen使用了一种称为卷积神经网络(CNN)的架构变体,这种架构擅长分析网格状数据,如像素的行和列。实际上,CNN在输入时上下移动小滑动窗口,寻找特定的假象,比如图案和角落。但是,尽管CNN在像素方面工作得很好,但一些最新的图像生成器使用所谓的扩散transformers,包括Stability AI的最新型号Stability Diffusion 3。一旦接受了扩散训练,transformers就能更好地掌握图像或视频帧的各个部分之间的关系,以及它们之间的关系有多强或多弱,从而产生更真实的输出(尽管它们仍会出错)。
原文:
Recommendation systems are another kettle of fish. It is rare to get a
glimpse at the innards of one, because the companies that build and use
recommendation algorithms are highly secretive about them. But in 2019
Meta, then Facebook, released details about its deep-learning
recommendation model (DLRM). The model has three main parts. First, it
converts inputs (such as a user’s age or “likes” on the platform, or content
they consumed) into “embeddings”. It learns in such a way that similar
things (like tennis and ping pong) are close to each other in this embedding
space.
推荐系统是另一回事。人们很难一窥其中的内幕,因为开发和使用推荐算法的公司对此高度保密。但在2019年,Meta,然后是脸书,发布了其深度学习推荐模型(DLRM)的细节。该模型有三个主要部分。首先,它将输入(如用户的年龄或平台上的“喜欢”或他们消费的内容)转换为“嵌入”。它以这样的方式学习,相似的东西(像网球和乒乓球)在这个嵌入空间中彼此靠近。
学习:
kettle:壶;水壶
another kettle of fish:另一回事
innards:美 [ˈɪnərdz] 内脏;内部结构
secretive:私密的;保密的
原文:
The DLRM then uses a neural network to do something called matrix
factorisation. Imagine a spreadsheet where the columns are videos and the
rows are different users. Each cell says how much each user likes each
video. But most of the cells in the grid are empty. The goal of
recommendation is to make predictions for all the empty cells. One way a
DLRM might do this is to split the grid (in mathematical terms, factorise the
matrix) into two grids: one that contains data about users, and one that
contains data about the videos. By recombining these grids (or multiplying
the matrices) and feeding the results into another neural network for more
number-crunching, it is possible to fill in the grid cells that used to be empty
—ie, predict how much each user will like each video.
然后,DLRM使用神经网络来做一种叫做矩阵分解的事情。想象一个电子表格,其中列是视频,行是不同的用户。每个单元格表示每个用户喜欢每个视频的程度。但是网格中的大部分单元格都是空的。推荐的目标是对所有空单元格进行预测。DLRM可以做到这一点的一个方法是将网格(用数学术语来说,分解矩阵)分成两个网格:一个包含用户数据,另一个包含视频数据。通过重新组合这些网格(或乘以矩阵),并将结果输入另一个神经网络进行更多的数字处理,有可能填充过去是空的网格单元——即,预测每个用户对每个视频的喜欢程度。
学习:
spreadsheet:美 [ˈsprɛdˌʃit] 数据表;计算表;电子表格
number-crunching:数字运算
原文:
The same approach can be applied to advertisements, songs on a streaming
service, products on an e-commerce platform, and so forth. Tech firms are
most interested in models that excel at commercially useful tasks like this.
But running these models at scale requires extremely deep pockets, vast
quantities of data and huge amounts of processing power.
同样的方法也适用于广告、流媒体服务上的歌曲、电子商务平台上的产品等等。科技公司最感兴趣的是擅长商业用途的模型。但大规模运行这些模型需要极其雄厚的财力、大量的数据和巨大的处理能力。
Wait until you see next year’s model
原文:
In academic contexts, where datasets are smaller and budgets are
constrained, other kinds of models are more practical. These include
recurrent neural networks (for analysing sequences of data), variational
autoencoders (for spotting patterns in data), generative adversarial networks
(where one model learns to do a task by repeatedly trying to fool another
model) and graph neural networks (for predicting the outcomes of complex
interactions)
在学术环境中,数据集较小,预算有限,其他类型的模型更实用。这些包括递归神经网络(用于分析数据序列)、变分自动编码器(用于发现数据中的模式)、生成对抗网络(其中一个模型通过反复试图欺骗另一个模型来学习完成任务)和图形神经网络(用于预测复杂交互的结果)
原文:
Just as deep neural networks, transformers and diffusion models all made the
leap from research curiosities to widespread deployment, features and
principles from these other models will be seized upon and incorporated into
future AI models. Transformers are highly efficient, but it is not clear that
scaling them up can solve their tendencies to hallucinate and to make logical
errors when reasoning. The search is already under way for “post-transformer”
architectures, from “state-space models” to “neuro-symbolic”AI, that can
overcome such weaknesses and enable the next leap forward.
Ideally such an architecture would combine attention with greater prowess at
reasoning. Right now no human yet knows how to build that kind of model.
Maybe someday an AI model will do the job. ■
正如深度神经网络、transformers 和扩散模型都从研究好奇到广泛部署,这些其他模型的功能和原理将被抓住并融入未来的人工智能模型。transformers 效率很高,但还不清楚扩大它们的规模能否解决它们产生幻觉和推理时犯逻辑错误的倾向。从“状态空间模型”到“神经符号”人工智能,对“后transformer ”架构的研究已经开始,可以克服这些弱点,实现下一次飞跃。理想情况下,这种架构将注意力与更强的推理能力结合起来。现在还没有人知道如何建造这种模型。也许有一天人工智能模型会做这项工作。■
后记
2024年8月12日17点51分于上海。
相关文章:

跟《经济学人》学英文:2024年08月10日这期 How AI models are getting smarter
How AI models are getting smarter Deep neural networks are learning diffusion and other tricks 原文: Type in a question to ChatGPT and an answer will materialise. Put a prompt into DALL-E 3 and an image will emerge. Click on TikTok’s “for y…...

Spring Web MVC入门(上)
1. Spring Web MVC Spring Web MVC 是基于 Servlet API 构建的原始 Web 框架,从⼀开始就包含在 Spring 框架中。它的正式名称“Spring Web MVC”来⾃其源模块的名称(Spring-webmvc),但它通常被称为“spring MVC”; 什么是Servlet呢? Servlet…...

【c++】公差判断函数 isInTolerance
定义: isInTolerance 函数用来判断一个特定数值(变量)是否在以某个中心值为基准 ,给定半径的范围内。这个函数包含了一个可选的参数 includeEndpoints(默认为 true), 用于决定范围是否包含其端点…...

电脑新加的硬盘如何分区?新加硬盘分区选MBR还是GPT
最近有网友问我,电脑新加的硬盘如何分区?电脑新加的硬盘分区选MBR还是GPT要看引导模式采用uefi还是传统的legacy模式,如果采用的是uefi引导模式,分区类型对应的就是gpt分区(guid),如果引导模式采用的是legacy,对应的分区类型为mb…...

白骑士的Matlab教学基础篇 1.3 控制流
系列目录 上一篇:白骑士的Matlab教学基础篇 1.2 MATLAB基础语法 控制流是编程中的核心概念,通过控制程序执行的顺序,从而实现复杂的逻辑操作。MATLAB 提供了多种控制流语句,包括条件语句、循环语句以及循环控制语句。掌握这些控制…...

设计模式 - 适配器模式
💝💝💝首先,欢迎各位来到我的博客,很高兴能够在这里和您见面!希望您在这里不仅可以有所收获,同时也能感受到一份轻松欢乐的氛围,祝你生活愉快! 文章目录 引言一、适配器…...

docker部署minIO
docker部署minIO 旧版本新版本 旧版本 #-u 以root用户运行容器;--privilegedtrue 给予容器命令访问权限 docker pull minio/minio:RELEASE.2021-06-17T00-10-46Z docker run -p 9001:9000 --name minio -d \-u root --privilegedtrue \-e "MINIO_ROOT_USERmin…...

「Pytorch」BF16 Mixed Precision Training
在深度学习领域,神经网络的训练性能瓶颈常常出现在 GPU显存的使用上。主要表现为两方面: 单卡上可容纳的模型和数据量有限;显存与计算单元之间的带宽和延迟限制了运算速度; 为了解决显卡瓶颈的问题,涌现了不同的解决…...

论文阅读:Efficient Core Maintenance in Large Bipartite Graphs | SIGMOD 2024
还记得我们昨天讨论的《Querying Historical Cohesive Subgraphs over Temporal Bipartite Graphs》这篇论文吗? https://blog.csdn.net/m0_62361730/article/details/141003301 这篇(还没看的快去看) 这篇论文主要研究如何在时间双向图上查询历史凝聚子图,而《E…...

LLMOps — 使用 BentoML 为 Llama-3 模型提供服务
使用 BentoML 和 Runpod 快速设置 LLM API 经常看到数据科学家对 LLM 的开发感兴趣,包括模型架构、训练技术或数据收集。然而,我注意到,很多时候,除了理论方面,许多人在以用户实际使用的方式提供这些模型时遇到了问题…...

微软蓝屏事件揭秘:有问题的数据引发内存读取越界
讲动人的故事,写懂人的代码 CrowdStrike前一阵在官网上发布了上周爆发的全球企业微软蓝屏事件的官方初步复盘结果。其中谈到了这次事件的根本原因: 2024年7月19日,我们部署了两个额外的IPC模板实例。由于内容验证器中的一个bug,使…...

NASA:北极ARCTAS差分吸收激光雷达(DIAL)遥感数据
ARCTAS Differential Absorption Lidar (DIAL) Remotely Sensed Data ARCTAS差分吸收激光雷达(DIAL)遥感数据 简介 ARCTAS差分吸收激光雷达(DIAL)遥感数据是一种远程感测技术,用于测量大气中不同波长的激光辐射被大…...

Android 文件上传与下载
在实际开发涉及文件上传不会自己写上传代码,一般 会集成第三网络库来做图片上传,比如android-async-http,okhttp等,另外还有七牛也提供 了下载和上传的API。 1.项目用到的图片上传的关键方法: 这里用到一个第三方的库…...

Java语言的充电桩系统Charging station system
介绍 SpringBoot 框架,充电桩平台充电桩系统充电平台充电桩互联互通协议云快充协议1.5-1.6协议新能源汽车二轮车公交车二轮车充电-四轮车充电充电源代码充电平台源码Java源码-共享充电桩-充电桩软件 软件介绍 小程序端:城市切换、附近电站、电桩详情页…...

RCE之无参数读取文件
什么是无参数? 顾名思义,就是只使用函数,且函数不能带有参数,这里有种种限制:比如我们选择的函数必须能接受其括号内函数的返回值;使用的函数规定必须参数为空或者为一个参数等 例题: <?…...

Python GUI开发必看:Tkinter Button控件使用详解
Button(按钮)组件用于实现各种各样的按钮。 Button组件可以包含文本或图像,你可以将一个Python的函数或方法与之相关联,当按钮被按下时,对应的函数或方法将被自动执行。 Button组件仅能显示单一字体的文本,…...

上海市计算机学会竞赛平台2024年7月月赛丙组得分排名
题目描述 给定 nn 名学生的考试得分,这些学生的学号为 11 到 nn,其第 ii 号学生的得分为 aiai,请将这些学生按照分数从大到小的顺序排列并输出学号序列。 若两个学生得分相同,则先输出较小的学号。 输入格式 第一行…...

Can GPT-3 Perform Statutory Reasoning?
文章目录 题目摘要相关工作SARAGPT-3 对美国法典的了解GPT-3 在对合成法规进行简单推理时遇到困难结论 题目 GPT-3 可以进行法定推理吗? 论文地址:https://arxiv.org/abs/2302.06100 摘要 法定推理是用事实和法规进行推理的任务,法规是立法机…...

redis面试(十一)锁超时
boolean res lock.tryLock(100, 10, TimeUnit.SECONDS); RedissonLock里面有这样一个方法tryLock(),意思是尝试获取锁的结果。 最大等待时间100s,并且获取到锁之后,10s之内没有释放的话,锁会自动失效。 尝试获取锁超时 time …...

C代码做底层及Matlab_SimuLink做应用层设计单片机程序
前言:SimuLink工具极其强大,但是能直接支持单片机自主开发的很少,造成这个问题的原因主要是我们使用的芯片底层多是C代码工程,芯片厂家也只提供C代码库,很少能提供SimuLink的支持库,即使提供也不是很不完善,如NXP的一些芯片提供的SimuLink库不含盖高级应用,再比如意法半…...

Cloud Kernel SIG 月度动态:ANCK OOT 驱动基线更新,发布 2 个 ANCK 版本
Cloud Kernel SIG(Special Interest Group):支撑龙蜥内核版本的研发、发布和服务,提供生产可用的高性价比内核产品。 01 SIG 整体进展 1. 发布 ANCK 5.10-016.4 小版本。 2. 发布 ANCK 5.10-017.1 小版本。 3. ANCK 新增海光平…...

vue3仿飞书头像,根据不同名称生成不同的头像背景色
效果展示: 传递三个参数: name:要显示的名称;size:头像的大小;cutNum:分割当前名称的最后几位数; 代码如下: <template><div:style"{color: #fff,borde…...

SpringBoot整合三方
SpringBoot整合redis 引入redis依赖包 <dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-data-redis</artifactId></dependency><dependency><groupId>redis.clients</groupId&g…...

React之组件的使用
Vue、React和Angular是三个流行的前端框架,采用组件化的开发方式。支持虚拟DOM(Virtual DOM)技术,有丰富的生态系统、大量的插件和工具可以使用。Vue的语法是传统的HTML和JavaScript,React使用JSX语法,Angu…...

深度学习--长短期记忆网络
1.引入 RNN 可以将以前的信息与当前的信息进行连接。例如,在视频中,可以用前面的帧来 帮助理解当前帧的内容;在文本中,可以用前面半句话的内容来预测后面的内容。但是, RNN 存在一个记忆消失的问题。例如,…...

研0 冲刺算法竞赛 day29 P2249 【深基13.例1】查找
P2249 【深基13.例1】查找 - 洛谷 | 计算机科学教育新生态 (luogu.com.cn) 思路: ①二分查找 ②stl函数:lower_bound(a.begin(),a.end(),x) 返回第一个大于等于 x的数的地址 代码: #include<iostream> #include<algorithm> …...

基于vue框架的CKD电子病历系统nfa2e(程序+源码+数据库+调试部署+开发环境)系统界面在最后面。
系统程序文件列表 项目功能:患者,医生,药品信息,电子病历,临时医嘱,长期医嘱,健康科普 开题报告内容 基于Vue框架的CKD电子病历系统 开题报告 一、选题背景 随着信息技术的飞速发展和医疗信息化的深入推进,电子病历系统(Electronic Medic…...

笔记:python 安装tar包报错
报错信息 ERROR: Could not find a version that satisfies the requirement setuptools>40.8.0 (from versions: none)ERROR: No matching distribution found for setuptools>40.8.0分析 1,当前已安装 setuptools 并且版本超过40.8.0 解决方案 缺包了&am…...

575. 分糖果
哈喽!大家好,我是奇哥,一位专门给面试官添堵的职业面试员 文章持续更新,可以微信搜索【小奇JAVA面试】第一时间阅读,回复【资料】更有我为大家准备的福利哟! 文章目录 一、题目二、答案三、总结 一、题目 …...

手机电量消耗分析工具 Battery Historian 指南
阅读五分钟,每日十点,和您一起终身学习,这里是程序员Android 本篇文章主要介绍 Android 开发中 电量 的部分知识点,通过阅读本篇文章,您将收获以下内容: 一、安装Battery Historian二、收集Batterystats 数据三、使用B…...