TensorFlow编程指南 嵌入

合集下载

基于Python的深度学习入门——使用TensorFlow进行深度学习

基于Python的深度学习入门——使用TensorFlow进行深度学习

基于Python的深度学习入门——使用TensorFlow进行深度学习在人工智能领域,深度学习是一种广泛使用的技术。

而 Python 语言作为一种高级编程语言,非常适合用来进行深度学习的开发。

因为 Python 语言有着丰富的第三方库,比如 TensorFlow,Keras,PyTorch 等等,这些库可以提供非常方便、高效的接口,来帮助我们完成深度学习的开发流程。

在本篇文章中,我将向大家介绍如何基于 Python 和 TensorFlow 进行深度学习的开发,我将从以下几点开始介绍:* 环境准备* TensorFlow 简介* 构建一个简单的神经网络* 训练、评估和预测模型环境准备在使用 Python 进行深度学习之前,我们需要安装 Python 环境。

从官网下载安装包并安装,推荐使用 Python 3.x 版本。

在安装完成后,我们需要下载 TensorFlow 库,可以使用如下命令快速安装:```pythonpip install tensorflow```TensorFlow 简介TensorFlow 是 Google 开发的一种深度学习框架,它可以用于各种类型的机器学习任务,包括分类、回归、聚类和语音识别等等。

TensorFlow 使用静态图形来表示计算过程,这种方式可以最大化运行时的性能,并且可以利用 GPU 在大规模数据集上处理数据。

TensorFlow 最适合的使用场景是当我们想要构建一个大型的神经网络,并在大规模数据集上进行训练时。

这种场景下,TensorFlow 可以提供非常高效的并行计算能力,来加速训练过程。

构建一个简单的神经网络在开发深度学习模型之前,我们需要定义一个神经网络结构。

在本文中,我们将构建一个非常简单的神经网络,它由一个输入层、一个隐藏层和一个输出层组成。

在隐藏层中,我们使用 ReLU 激活函数来增加非线性能力,并使用 Softmax 函数来进行分类。

接下来,我们定义用于训练模型的一些参数:```pythonlearning_rate = 0.01training_epochs = 100batch_size = 256display_step = 1```其中,学习率 (learning_rate) 用于控制梯度下降的步长,训练次数(training_epochs) 用于控制训练时的轮数,批量大小 (batch_size) 用于控制每次训练时数据的数量,显示步骤 (display_step) 用于控制每隔多少个 epoch 就显示一次训练结果。

python tensorflow embedding原理 -回复

python tensorflow embedding原理 -回复

python tensorflow embedding原理-回复Python TensorFlow Embedding原理TensorFlow是一个强大的开源机器学习框架,可以用于构建和训练各种深度学习模型。

在TensorFlow中,embedding是一种常用的技术,用于将离散的词汇或类别转换为连续的向量表示。

本文将逐步解释TensorFlow中embedding的原理和实现。

1. 什么是Embedding?在自然语言处理(NLP)中,我们经常需要将单词或类别转换为机器可以理解的形式。

传统的方法是使用独热编码(One-Hot Encoding),其中每个单词或类别都被表示为一个稀疏向量,只有一个维度为1,其余维度均为0。

然而,这种表示方法存在两个主要问题。

首先,独热编码将导致高维度的稀疏向量,而且在大规模数据集上训练模型时会导致计算和内存开销较大。

其次,独热编码无法捕捉单词或类别之间的语义关系,而单词或类别之间的关系对于NLP任务是非常重要的。

嵌入(embedding)是一种解决以上问题的方法,它通过将每个单词或类别映射到一个低维连续向量表示,来表示它们之间的关系和语义信息。

这些低维向量被称为嵌入向量(embedding vector),并且可以从数据中学习得到。

2. TensorFlow Embedding原理在TensorFlow中,通过使用`yers.Embedding`类来实现嵌入层。

这个嵌入层将离散的输入值(例如单词或类别的ID)转换为对应的嵌入向量。

下面是TensorFlow中嵌入层的原理和实现步骤:(1)定义输入数据:首先,我们需要定义输入数据,例如一个包含单词ID的列表。

这个输入数据将作为嵌入层的输入。

(2)创建嵌入层:使用`yers.Embedding`类创建嵌入层。

在创建嵌入层时,我们需要指定输入数据的范围,例如最大单词ID或类别数,以及每个输入值的嵌入维度。

(3)训练模型:在训练模型时,嵌入层会自动学习每个输入值的嵌入向量。

TensorFlow在嵌入式系统上的部署

TensorFlow在嵌入式系统上的部署

TensorFlow在嵌入式系统上的部署TensorFlow是一个开源的机器学习框架,由Google开发并维护。

它具有强大的计算能力和灵活性,在许多领域都得到了广泛的应用。

然而,由于传统计算机系统的限制,TensorFlow在嵌入式系统上的部署一直是一个挑战。

本文将介绍如何将TensorFlow部署在嵌入式系统上,并探讨一些可能的解决方案。

一、TensorFlow的简介和特点TensorFlow是一个用于构建和训练机器学习模型的开源框架。

它支持深度学习和其他机器学习算法,具有强大的计算能力和灵活的编程接口。

TensorFlow的特点包括:1. 分布式计算:TensorFlow可以在多个设备上进行并行计算,充分利用硬件资源,加快模型的训练和推断速度。

2. 自动求导:TensorFlow能够自动计算模型参数的梯度,简化了模型的训练过程。

3. 模块化设计:TensorFlow将模型定义为一个计算图,可以方便地重用和共享模型的各个组件。

二、嵌入式系统的挑战嵌入式系统通常具有资源受限的特点,包括有限的内存、处理能力和功耗。

这给TensorFlow在嵌入式系统上的部署带来了挑战。

以下是一些常见的挑战:1. 内存占用:TensorFlow模型通常需要大量的内存来存储模型参数和中间计算结果,而嵌入式系统的内存通常较小。

2. 计算能力:TensorFlow需要对数据进行大量的计算操作,而嵌入式系统的计算能力有限。

3. 功耗:嵌入式系统通常有严格的功耗要求,而TensorFlow在进行大量计算时可能会消耗大量的能量。

三、TensorFlow在嵌入式系统上的解决方案为了将TensorFlow成功地部署在嵌入式系统上,需要采取一些解决方案来应对上述挑战。

以下是一些可能的解决方案:1. 模型压缩:将模型进行压缩,减小模型的存储空间和内存占用。

可以使用量化、剪枝、离线学习等技术来减小模型的规模。

2. 模型量化:将模型参数从浮点数表示转换为定点数表示,可以减小模型的内存占用和计算开销。

银河麒麟服务器操作系统 V4 TensorFlow 软件适配手册说明书

银河麒麟服务器操作系统 V4 TensorFlow 软件适配手册说明书

银河麒麟服务器操作系统V4 TensorFlow软件适配手册天津麒麟信息技术有限公司2019年5月目录1概述 (2)1.1系统概述 (2)1.2环境概述 (2)1.3TENSORFLOW软件概述 (2)1.4TENSORFLOW特点 (2)1.5TENSORFLOW原理介绍 (4)2TENSORFLOW软件适配 (4)2.1安装编译需要的依赖包 (4)2.2下载指定分支源码 (5)2.3编译选项和以及平台相关修改 (5)2.4编译及安装 (5)3TENSORFLOW软件功能验证 (6)3.1验证TENSORFLOW安装 (6)3.2尝试CONVOLUTIONAL MODEL (6)1概述1.1系统概述银河麒麟服务器操作系统主要面向军队综合电子信息系统、金融系统以及电力系统等国家关键行业的服务器应用领域,突出高安全性、高可用性、高效数据处理、虚拟化等关键技术优势,针对关键业务构建的丰富高效、安全可靠的功能特性,兼容适配联想、浪潮、华为、曙光等国内主流厂商的服务器整机产品,以及达梦、金仓、神通等主要国产数据库和中创、金蝶、东方通等国产中间件,满足虚拟化、云计算和大数据时代,服务器业务对操作系统在性能、安全性及可扩展性等方面的需求,是一款具有高安全、高可用、高可靠、高性能的自主可控服务器操作系统。

1.2环境概述服务器型号长城信安擎天DF720服务器CPU类型飞腾2000+处理器操作系统版本Kylin-4.0.2-server-sp2-2000-19050910.Z1内核版本 4.4.131TensorFlow版本 1.101.3TensorFlow软件概述TensorFlow是谷歌基于DistBelief进行研发的第二代人工智能学习系统,其命名来源于本身的运行原理。

TensorFlow最初由Google大脑小组(隶属于Google 机器智能研究机构)的研究员和工程师们开发出来,用于机器学习和深度神经网络方面的研究,但这个系统的通用性使其也可广泛用于其他计算领域。

TensorFlow 官方文档中文版

TensorFlow 官方文档中文版
进度记录
• 2015-11-10, 谷歌发布全新人工智能系统TensorFlow并宣布开源, 极客学院Wiki启动协同翻译,创建 GitHub 仓库,制定协同规范
• 2015-11-18, 所有章节认领完毕,翻译完成18章,校对认领7章,Star数361,fork数100,协同翻译QQ群及技 术交流群的TF爱好者将近300人,GitHub搜索TensorFlow排名第二
感谢支持
• 极客学院 Wiki 提供图文教程托管服务
离线版本
目前,离线版本(PDF、ePub)可正常下载、使用
Tex-PDF 修订版
Tex-PDF 修订版 目前正在编订中,欢迎加入进来一起修订。您可以在此查看预览版目前最新状态。
目录
前言. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
第 1 章 起步 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
第2章
简介 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 下载与安装 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 基本使用 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
• 其中一位,恩泽同学,为了翻译一篇文档,在前一天没有睡觉的情况下坚持翻完,20个小时没有合眼 • 还有一位老师,刚从讲台上讲完课,就立即给我们的翻译提修改意见 • 很多同学自发的将搭建环境中遇到的问题总结到FAQ里帮助他人 • 为了一个翻译细节,经常是来回几次,和其程中,难免会有不完善的地方,希望请大家一起帮助我们持续改 进文档的翻译质量,帮助更多的人,方法:

tensorflow进阶指南 基础、算法与应用

tensorflow进阶指南 基础、算法与应用

tensorflow进阶指南基础、算法与应用TensorFlow进阶之旅:从基础架构到算法实战,再到应用之巅在深度学习的世界里,TensorFlow无疑是一艘强大的旗舰,承载着无数开发者驶向智能海洋的彼岸。

今天,让我们一同踏上这场“TF”的进阶探险,从夯实基础开始,纵览那些令人拍案叫绝的算法精粹,最终迈向实际应用场景的广阔天地。

首先,我们聊聊TensorFlow的基础架构,那可是每个深度学习者的“基石”。

它以其灵活且高效的图计算模型为核心,构建了一个强大而易用的平台。

你可能会问:“何谓图计算?”想象一下,就像我们在绘制一幅复杂的神经网络地图,每一个节点代表一个数学运算,每一条边则表示数据流。

如此一来,通过动态或静态图的方式描绘并执行我们的模型,使得整个过程如同行云流水,让复杂的深度学习任务变得可视化且可控。

再者,深入TensorFlow的内核,你会发现丰富的算法宝库正熠熠生辉。

从经典的卷积神经网络(CNN)到循环神经网络(RNN),从强化学习(RL)到生成对抗网络(GAN),再到最新的Transformer家族,这些算法犹如武林秘籍,助力开发者在各类任务中披荆斩棘,无论是图像识别、语音合成,还是自然语言处理,都能找到对应的“独门绝技”。

然而,理论是实践的母亲,将TensorFlow的算法应用到实际场景中,则是我们探索之旅的高潮部分。

比如,在自动驾驶领域,利用TensorFlow训练出精准的物体检测和路径规划模型;在医疗影像分析中,通过深度学习算法对病灶进行精准定位和分类;甚至在推荐系统中,运用个性化算法提升用户体验。

这些实实在在的应用案例,都是TensorFlow实力的鲜活证明。

与此同时,别忘了TensorFlow社区的力量——这个全球数百万开发者的智慧结晶,他们共同贡献了众多开源项目、教程和工具包,宛如一座座灯塔,照亮了我们前行的道路。

无论你是初出茅庐的新手,还是经验丰富的老司机,在这里都能找到适合自己进阶的路径。

Python深度学习教程TensorFlow与Keras库使用

Python深度学习教程TensorFlow与Keras库使用

Python深度学习教程TensorFlow与Keras库使用Python深度学习教程——TensorFlow与Keras库使用深度学习是一种机器学习的方法,在许多领域都取得了令人瞩目的成果。

Python作为一种广泛应用的编程语言,为深度学习提供了强大的支持和丰富的工具库。

本教程将介绍Python中两个重要的深度学习库,TensorFlow和Keras,以及它们的使用方法。

一、介绍TensorFlow是一个开源的软件库,由Google Brain团队开发,用于进行机器学习和深度神经网络的研究。

它提供了一个灵活的计算框架,可用于各种任务,如图像识别、自然语言处理和推荐系统等。

TensorFlow使用数据流图的形式表示计算任务,可以在单个或多个CPU、GPU和分布式设备上运行。

Keras是一个高级神经网络API,可以运行在TensorFlow、CNTK或Theano等低级库之上。

Keras的设计理念是用户友好、模块化和可扩展的。

它支持快速的原型设计和大规模的产品化部署,并且具有广泛的应用领域。

二、安装和配置在开始之前,我们需要将TensorFlow和Keras库安装到我们的系统中。

你可以通过pip命令来进行安装:```pip install tensorflowpip install keras```安装完成后,我们还需要配置一些参数,以确保库能够正确地运行。

具体的配置方法可以参考TensorFlow和Keras的官方文档。

三、基本使用接下来,我们将介绍TensorFlow和Keras库的基本使用方法。

1. TensorFlowTensorFlow使用数据流图表示计算任务。

首先,我们需要定义一个图并添加节点。

节点可以是张量(Tensor)或操作(Operation)。

然后,我们可以在一个会话(Session)中执行图,并获取结果。

下面是一个简单的例子:```pythonimport tensorflow as tf# 定义图graph = tf.Graph()with graph.as_default():# 定义节点a = tf.constant(3)b = tf.constant(5)# 定义操作sum = tf.add(a, b)# 执行图with tf.Session(graph=graph) as session:result = session.run(sum)print(result)```运行上述代码,我们将得到8,这是将常量3和5相加的结果。

Java中的机器学习实践使用TensorFlow和Keras构建模型

Java中的机器学习实践使用TensorFlow和Keras构建模型

Java中的机器学习实践使用TensorFlow和Keras构建模型机器学习在如今的科技领域中扮演着重要的角色,能够通过数据分析和模型构建来实现各种任务,如分类、回归、聚类等。

而在Java编程语言中,使用TensorFlow和Keras库可以方便地构建和训练机器学习模型。

本文将介绍如何在Java中使用TensorFlow和Keras来构建机器学习模型的实践方法。

一、安装TensorFlow和Keras要在Java中使用TensorFlow和Keras,首先需要安装它们的Java库。

可以通过Maven或Gradle等构建工具将它们添加到项目的依赖中。

以下是添加TensorFlow和Keras库的Maven依赖示例:```xml<dependencies><dependency><groupId>org.tensorflow</groupId><artifactId>tensorflow</artifactId><version>2.5.0</version></dependency><dependency><groupId>org.deeplearning4j</groupId><artifactId>dl4j-core</artifactId><version>1.0.0-beta7</version></dependency><!-- 其他依赖 --></dependencies>```安装完成后,就可以在Java项目中使用TensorFlow和Keras库了。

二、数据准备在构建机器学习模型之前,需要准备好用于训练和测试的数据。

一般情况下,数据需要进行预处理、特征工程等操作,以便更好地适应模型的训练。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

嵌入本文档介绍了嵌入这一概念,并且举了一个简单的例子来说明如何在TensorFlow 中训练嵌入,此外还说明了如何使用TensorBoard Embedding Projector 查看嵌入(真实示例)。

前两部分适合机器学习或TensorFlow 新手,而Embedding Projector 指南适合各个层次的用户。

有关这些概念的另一个教程,请参阅《机器学习速成课程》的“嵌入”部分。

嵌入是从离散对象(例如字词)到实数向量的映射。

例如,英语字词的300 维嵌入可能包括:blue: (0.01359, 0.00075997, 0.24608, ..., -0.2524, 1.0048, 0.06259) blues: (0.01396, 0.11887, -0.48963, ..., 0.033483, -0.10007, 0.1158) orange: (-0.24776, -0.12359, 0.20986, ..., 0.079717, 0.23865,-0.014213)oranges: (-0.35609, 0.21854, 0.080944, ..., -0.35413, 0.38511,-0.070976)这些向量中的各个维度通常没有固有含义,机器学习所利用的是向量的位置和相互之间的距离这些整体模式。

嵌入对于机器学习的输入非常重要。

分类器(更笼统地说是神经网络)适用于实数向量。

它们训练密集向量时效果最佳,其中所有值都有助于定义对象。

不过,机器学习的很多重要输入(例如文本的字词)没有自然的向量表示。

嵌入函数是将此类离散输入对象转换为有用连续向量的标准和有效方法。

嵌入作为机器学习的输出也很有价值。

由于嵌入将对象映射到向量,因此应用可以将向量空间中的相似性(例如欧几里德距离或向量之间的角度)用作一项强大而灵活的标准来衡量对象相似性。

一个常见用途是找到最近的邻点。

例如,下面是采用与上述相同的字词嵌入后,每个字词的三个最近邻点和相应角度:blue: (red, 47.6°), (yellow, 51.9°), (purple, 52.4°)blues: (jazz, 53.3°), (folk, 59.1°), (bluegrass, 60.6°)orange: (yellow, 53.5°), (colored, 58.0°), (bright, 59.9°) oranges: (apples, 45.3°), (lemons, 48.3°), (mangoes, 50.4°)这样应用就会知道,在某种程度上,苹果和橙子(相距45.3°)的相似度高于柠檬和橙子(相距48.3°)。

TensorFlow 中的嵌入要在TensorFlow 中创建字词嵌入,我们首先将文本拆分成字词,然后为词汇表中的每个字词分配一个整数。

我们假设已经完成了这一步,并且word_ids是这些整数的向量。

例如,可以将“I have a cat.”这个句子拆分成[“I”, “have”, “a”, “cat”, “.”],那么相应word_ids张量的形状将是[5],并且包含5 个整数。

为了将这些字词ID 映射到向量,我们需要创建嵌入变量并使用tf.nn.embedding_lookup函数,如下所示:word_embeddings = tf.get_variable(“word_embeddings”,[vocabulary_size, embedding_size])embedded_word_ids = tf.nn.embedding_lookup(word_embeddings,word_ids)完成此操作后,示例中张量embedded_word_ids的形状将是[5,embedding_size],并且包含全部5 个字词的嵌入(密集向量)。

在训练结束时,word_embeddings将包含词汇表中所有字词的嵌入。

嵌入可以通过很多网络类型进行训练,并具有各种损失函数和数据集。

例如,对于大型句子语料库,可以使用递归神经网络根据上一个字词预测下一个字词,还可以训练两个网络来进行多语言翻译。

字词的向量表示教程中介绍了这些方法。

直观显示嵌入TensorBoard 包括Embedding Projector,这是一款可让您以交互的方式直观显示嵌入的工具。

此工具可以读取模型中的嵌入,并以二维或三维方式渲染这些嵌入。

Embedding Projector 具有三个面板:∙数据面板:位于左上方,您可以在其中选择运行、嵌入变量和数据列,以对点进行着色和标记。

∙投影面板:位于左下方,您可以在其中选择投影类型。

∙检查工具面板:位于右侧,您可以在其中搜索特定点并查看最近邻点的列表。

投影Embedding Projector 提供三种方法来降低数据集的维度。

∙t-SNE:一种非线性不确定性算法(T 分布式随机邻点嵌入),它会尝试保留数据中的本地邻点,通常以扭曲全局结构为代价。

您可以选择是计算二维还是三维投影。

∙PCA:一种线性确定性算法(主成分分析),它尝试用尽可能少的维度捕获尽可能多的数据可变性。

PCA 会突出数据中的大规模结构,但可能会扭曲本地邻点。

Embedding Projector 会计算前10 个主成分,您可以从中选择两三个进行查看。

∙自定义:线性投影到您使用数据中的标签指定的水平轴和垂直轴上。

例如,您可以通过为“左”和“右”指定文本格式来定义水平轴。

Embedding Projector 会查找标签与“左”格式相匹配的所有点,并计算这些点的形心;“右”格式与此类似。

穿过这两个形心的线定义了水平轴。

同样地,计算与“上”和“下”文本格式相匹配的点的形心可定义垂直轴。

要查看其他实用文章,请点击如何有效使用t-SNE和直观介绍主成分分析。

探索您可以使用自然的点击并拖动手势来缩放、旋转和平移,从而进行直观探索。

将鼠标悬停在某个点上即可看到该点的所有元数据。

您还可以检查最近的邻点子集。

点击某个点以后,右窗格中会列出最近的领点,以及到当前点的距离。

投影中还会突出显示最近的邻点。

有时,将视图限制为点的子集并仅投影这些点非常有用。

要执行此操作,您可以通过多种方式选择点:∙点击某个点之后,其最近的邻点也会处于选中状态。

∙搜索之后,与查询匹配的点会处于选中状态。

∙启用选择,点击某个点并拖动可定义选择范围。

然后,点击右侧检查工具窗格顶部的“隔离nnn 个点”按钮。

下图显示已选择101 个点,因此用户可以点击“隔离101 个点”:在字词嵌入数据集中选择“重要”一词的最近邻点。

高级技巧:使用自定义投影进行过滤可能会非常有用。

我们在下图中滤出了“政治”一词的100 个最近邻点,并将它们投影到“最差”-“最优”向量上作为x 轴。

y 轴是随机的。

这样一来,我们可以发现“想法”、“科学”、“视角”、“新闻”这些字词位于右侧,而“危机”、“暴力”和“冲突”这些字词位于左侧。

自定义投影控件。

“政治”的邻点到“最优”-“最差”向量的自定义投影。

要分享您的发现,可以使用右下角的书签面板并将当前状态(包括任何投影的计算坐标)保存为小文件。

接着可以将 Projector 指向一个包含一个或多个这些文件的集合,从而生成下面的面板。

然后,其他用户就可以查看一系列书签。

元数据如果您使用嵌入,则可能需要向数据点附加标签/图片。

您可以通过生成一个元数据文件(其中包含每个点的标签),并在Embedding Projector 的数据面板中点击“加载数据”来完成此操作。

元数据可以是标签,也可以是图片,它们存储在单独的文件中。

如果是标签,则格式应该是TSV 文件(制表符显示为红色),其中第一行包含列标题(以粗体显示),而后续行包含元数据值。

例如:Word\t FrequencyAirplane\t345Car\t241...假设元数据文件中的行顺序与嵌入变量中的向量顺序相匹配,但标题除外。

那么,元数据文件中的第(i+1) 行对应于嵌入变量的第i 行。

如果TSV 元数据文件仅有一列,那么不会有标题行,并且假设每行都是嵌入的标签。

我们之所以包含此例外情况,是因为它与常用的“词汇表文件”格式相匹配。

要将图片用作元数据,您必须生成一个sprite 图片,其中包含小缩略图,嵌入中的每个向量都有一个小缩略图。

sprite 应该按照行在前的顺序存储缩略图:将第一个数据点放置在左上方,最后一个数据点放在右下方,但是最后一行不必填充,如下所示。

点击此链接可查看Embedding Projector 中的一个有趣缩略图示例。

迷你版常见问题解答“嵌入”是一种操作还是一种事物?都是。

人们一直说的是在向量空间中嵌入字词(操作),以及生成字词嵌入(事物)。

两者的共同点在于嵌入这一概念,即从离散对象到向量的映射。

创建或应用该映射是一种操作,但映射本身是一种事物。

嵌入是高维度还是低维度?视情况而定。

例如,与可包含数百万个字词和短语的向量空间相比,一个300 维的字词和短语向量空间通常被视为低维度(且密集)空间。

但从数学角度上来讲,它是高维度空间,显示的很多属性与人类直觉了解的二维和三维空间大相径庭。

嵌入与嵌入层是否相同?不同。

嵌入层是神经网络的一部分,而嵌入则是一个更宽泛的概念。

相关文档
最新文档