Docker学习(四) 网络
Docker学习(四) 网络理解docker0
1234567891011121314151617181920212223# docker 是如何处理容器网络访问的(base) root@linux:/home/cpss# docker run -d -P --name tomcat01 tomcat# 查看容器的内部网络地址 ip addr# 发现容器启动的时候会得到一个 eth0@if34 ip地址,docker分配的(base) root@linux:/home/cpss# docker exec -it tomcat01 ip addr1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lf ...
Docker学习(三)
Docker学习(三)可视化portainer (不常用)Docker的图形化界面管理工具
1234# 外部8088 内部9000 # -v 挂载docker run -d -p 8088:9000\--restart=always -v /var/run/docker.sock:/var/run/docker.sock --privileged=true portainer/portainer
Rancher(CI/CD再用)
镜像是什么是一种轻量级、可执行的独立软件包,用来打包软件运行环境和基于运行环境开发的软件。它包含某个软件所需的所有内容,包括代码、运行时、库、环境变量和配置文件。
如何得到:
远程仓库下载
拷贝
自己制作一个镜像DockerFile
镜像加载原理
UnionFS(联合文件系统)
我们下载的时候看到的一层层就是这个
UnionFS是一种分层、轻量级且高性能的文件系统,它支持文件系统的修改作为一次提交来一层层的叠加,同时可以将不同目录挂载到同一个虚拟文件系统下.
特性: ...
Docker学习(二)例子练习
Docker学习(二)例子练习部署Nginx
搜索镜像去docker hub上
下载镜像 docker pull nginx
docker run -d 后台运行 —name nginx01 -p 10024:80
12(base) root@localhost:/home/cpss# docker run -d --name nginx01 -p 10024:80 nginx84960293d8409dc9f7e70be88027c2149ece57d7cf02dc4d71eb81fe1651fc96
123(base) root@localhost:/home/cpss# docker psCONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES84960293d840 nginx "/docker-entr ...
Docker学习(一)
Docker学习(一)文档:https://docs.docker.com/
Hub : https://hub.docker.com/
路线
Docker概述
Docker安装
Docker命令
镜像命令
容器命令
操作命令
……
Docker镜像
容器数据卷
DockerFile
Docker网络原理
Docker Compose
Docker Swarm
CI\CD Jenkins
Docker概述Docker为什么会出现?
环境配置十分麻烦,每个机器都要部署环境,很难跨平台,集群环境更浪费时间。项目能不能带上环境打包(镜像)。
能干嘛?
之前的虚拟机技术,浪费资源比较多
缺点:
资源占用多
冗余步骤多
启动很慢
容器化技术
不是模拟一个完整的操作系统
不同之处:
传统虚拟机,虚拟出一套硬件,运行一个完整的操作系统,然后在这个系统上运行安装软件
容器的应用直接运行在宿主机上的内核中,容器是没有自己的内核的,没有虚拟硬件,比较轻便
每个容器间是互相隔离的,每个容器内都有一共自己的文件系统,互不影响。
DevOps(开发 运维)
更快速的交付和部署 ...
HotpotQA Submission Guide
HotpotQA Submission Guide记录如何提交模型在HotpotQA test
codalab安装与注册先去注册 https://worksheets.codalab.org/
首先安装codalab
1pip install codalab -U
如果ERROR: Cannot uninstall ‘PyYAML’. It is a distutils installed project and thus we cannot accurately determine which files belong to it which would lead to only a partial uninstall.
使用 pip install codalab -U —ignore-installed PyYAML
Codalab wiki : https://github.com/codalab/codalab-worksheets/wiki
注册安装完成后可以再命令行登录:
12345$ cl workRequesting access at https://worksh ...
Heterogeneous Graph Transformer for Graph-to-Sequence Learning
Heterogeneous Graph Transformer for Graph-to-Sequence LearningGraph2Seq学习的目的是将图结构的表示转换为单词序列,以便生成文本。
AMR-to-text是从抽象意义表示(AMR)图中生成文本的任务,其中节点表示语义概念,边表示概念之间的关系。
传统GNN只考虑了直接相连节点之间的关系,而忽略了远距离节点之间的间接关系。
Graph2Seq的其他两个和Graph Transformer的论文
Graph transformer for graph-to-sequence learning AAAI 2020
Modeling graph structure in transformer for better AMR-to-text gen- eration EMNLP 2019
使用节点之间的最短关系路径来编码语义关系。但是,它们忽略了关系路径中节点的信息,对直接关系和间接关系没有区别地进行编码。当从直接邻居那里聚集信息时,可能会干扰信息的传播过程。
作者使用Heterogeneous Graph Trans ...
Graph Transformer for Graph-to-Sequence Learning
Graph Transformer for Graph-to-Sequence Learning这篇论文应用于在基于抽象语义表示(AMR)的文本生成和基于句法的神经机器翻译,句法机器翻译并入源端语法信息可以提高翻译质量。如图给出了AMR到文本生成的示例。
论文应用Graph Transformer,其与限制近邻之间信息交换的图神经网络不同,Graph Transformer使用显式关系编码,允许两个远距离节点之间的直接通信。它为全局图结构建模提供了一种更有效的方法。
这篇论文想解决的是打破传统GNN的局部邻接特性,使用高效的全局信息。
Methed对于n个节点的图,以前的图神经网络将节点表示$v_i$计算为输入节点 $i$ 及其所有一阶邻域 $N(i)$的函数。图结构由每个节点表示的感受野隐式反映。然而,这种本地通信设计对于远程信息交换可能是低效的。
所以引入Graph Transformer,它提供了一种截然不同的范例,可以实现关系感知的全球通信。
作者提出的是关系增强的全局注意力机制,和Graphromer一样任何节点对之间的关系被描述为它们之间的最短关系路径。
Graph E ...
Rethinking Graph Transformers with Spectral Attention
Rethinking Graph Transformers with Spectral Attention提出了Spectral Attention Network(SAN),它使用学习的位置编码(LPE),可以利用全拉普拉斯频谱来学习给定图中每个节点的位置。通过利用拉普拉斯的全谱,模型在理论上具有强大的区分图形的能力,并且可以更好地从它们的共振中检测出相似的子结构。
在这项工作中,作者还是研究如何将Transformer体系结构应用于图形表示学习。开发了强大的可学习的位置编码方法,这些方法植根于谱图理论。 谱注意力网络(SAN)架构解决了先前图形转换器工作中的关键理论限制,并且明显超过了标准消息传递GNN的表达能力。
SAN方法的优势对比:
保持注意中的局部结构
使用边特征
连接非相邻节点
使用基于特征向量的PE进行注意
使用具有结构信息的PE
考虑特征值的排序
特征向量的范数不变量
考虑特征值的谱 (SAN独有)
考虑特征向量的变量# (SAN独有)
意识到特征值的多重性 (SAN独有)
对特征向量的符号不变
也就是说SAN结合了 ...
Heterogeneous Graph Transformer
Heterogeneous Graph Transformer提出了一种用于Web规模异构图建模的异构图Transformer(HGT)体系结构。
其一是设计了节点和边类型相关的参数来表征对每条边的异构attention,使得HGT能够维护不同类型的节点和边的专用表示。
其二为了处理Web规模的图形数据,我们设计了异构小批量图形采样算法HG Samples,以实现高效和可扩展的训练
作者使用的是OAG学术图,其存在的异构关系如下图:
要解决的问题GNN以前可以处理异质图是基于元路径的方法有PathSim, methpath2vec等。GNN火起来以后也出现了好多处理异质图的工作。
作者认为面临着几个问题:首先,它们大多涉及为每种类型的异构图设计元路径,需要特定的领域知识;其次,它们要么简单地假设不同类型的节点/边共享相同的特征和表示空间,要么只针对节点类型或边类型保持不同的非共享权重,使得它们不足以捕捉异构图的属性;最后,其固有的设计和实现使得它们无法对Web规模的异构图进行建模。
作者的目标是:保持节点和边类型的依赖表示,避免定制的元路径,并且能够扩展到Web规模的异构图。
做法: ...
Transformer的辅助
Transformer的辅助转载:https://zhuanlan.zhihu.com/p/149634836
为什么Transformer需要进行Multi-head AttentionAttention is all you need论文中讲模型分为多个头,形成多个子空间,每个头关注不同方面的信息。
如果Multi-Head作用是关注句子的不同方面,那么不同的head就应该关注不同的Token;当然也有可能是关注的pattern相同,但是关注的内容不同,即V不同。
但是大量的paper表明,transformer或Bert的特定层有独特的功能,底层更偏向于关注语法;顶层更偏向于关注语义。
所以对Multi-head而言,同一层Transformer_block关注的方面应该整体是一致的。不同的head关注点也是一样。但是可视化同一层的head后,发现总有那么一两个头独一无二的,和其他头的关注不一样。
众多研究表明Multi-Head其实不是必须的,去掉一些头效果依然有不错的效果(而且效果下降可能是因为参数量下降),这是因为在头足够的情况下,这些头已经能够有关注位置信息、关注语法信息 ...