深入解析Linux 常用命令--cat
1.概述cat常用于查看文件内容。
2.显示文件内容(显示字符)cat -A 显示文件内容,包括结束符、TAB。其中结束符以$显示,TAB以^I显示,空格不显示。
[root@smart Desktop]# cat test.md
AUTHOR
Written by Richard M. Stallman and David MacKenzie.
[root@smart Desktop]# cat -A test.md
AUTHOR$
^IWritten by Richard M. Stallman and David MacKenzie.$
$
3.显示行号cat -b 显示非空行行号
cat -n 显示所有行行号
[root@smart Desktop]# cat -b test.md
1 AUTHOR
2 Written by Richard M. Stallman and David MacKenzie.
3 REPORTING BUGS
4 Report ls bugs to bug ...
深入解析Linux 常用命令--arping
1.概述arping常用于检测IP是否已经存在、某个IP的MAC的地址等。
2.arping各参数含义a.无参数,持续的向特定IP地址请求arp
12345[root@smart Desktop]# arping 192.168.1.105 ARPING 192.168.1.105 from 192.168.1.120 eth0Unicast reply from 192.168.1.105 [3C:BD:3E:61:13:08] 1.324msUnicast reply from 192.168.1.105 [3C:BD:3E:61:13:08] 104.092msUnicast reply from 192.168.1.105 [3C:BD:3E:61:13:08] 8.286ms
b. -c count,发送arp包个数
12345678910111213141516171819[root@smart Desktop]# arping -c 1 192.168.1.105 ARPING 192.168.1.105 from 192.168.1.120 eth0Unic ...
深入解析Linux 常用命令--ip
1.概述ip命令用于显示/操作路由、设备、策略、隧道等信息。
2.用法 ip [ OPTIONS ] OBJECT { COMMAND | help }
OPTIONS := { -V[ersion] | -s[tatistics] | -r[esolve] | -f[amily] { inet
| inet6 | ipx | dnet | link } | -o[neline] }
OBJECT := { link | addr | addrlabel | route | rule | neigh | tunnel |
maddr | mroute | monitor }
COMMAND :={ add | del |show | list}
a.Options-V 打印ip的版本号
-s 输出详细的统计信息
b.Objectlink 网络设备
address/addr 设备ip地址
neighbor ...
深入解析Linux 常用命令--ping
1.概述ping常用于检测网络状况。
2.各参数含义-c count,当ping到一定数量后终止ping。
-i interval ,ping包间隔
-I interface address,网卡,IP所在网卡ping出
-s packetsize,包大小,包含8字节icmp头
-S 指定源地址
12345678910111213141516171819202122232425262728293031323334353637383940414243[root@smart Desktop]# ping 192.168.1.1PING 192.168.1.1 (192.168.1.1) 56(84) bytes of data.64 bytes from 192.168.1.1: icmp_seq=1 ttl=64 time=0.576 ms64 bytes from 192.168.1.1: icmp_seq=2 ttl=64 time=0.790 ms^C--- 192.168.1.1 ping statistics ---2 packets transmi ...
CentOS OOM问题分析
近日,部署应用程序的CentOS操作系统频繁kill应用进程,感到非常意外。通过对系统日志进行分析,发现syslog中输出out of memery,LowMem不足。
经过查阅大量的资料,分析发现是由于32位系统寻址空间的限制。32位linux将内存空间分为三部分:DMA、Normal(LowMem)、HighMem。其范围如下: Zone PFN ranges: DMA 0x00000000 -> 0x00FFFFFF 16M Normal 0x01000000 -> 0x37FFFFFF 880M HighMem 0x38000000 ->
其中,DMA为系统直接存储器空间,LowMem为系统低端内存,主要为Linux内核使用,HighMem为通用内存。(注:64位系统基本都是LowMem)
一般情况下,16G内存的IBM服务器LowMem约700M,系统启动后剩余约600M。
经过对各个进程进行分析后发现,有一个进程会对内核协议栈参数进行优化,使得socket缓冲过大,从而导致LowMem耗尽, ...
TensorFlow深度学习笔记-11
Inception是Google训练好的一个图像识别模型,我们可以利用它来对我们的图像进行识别。
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899# coding: utf-8import tensorflow as tfimport osimport numpy as npimport refrom PIL import Imageimport matplotlib.pyplot as pltclass NodeLookup(object): def __init__(self): label_lookup_path = 'inception_model/imagenet_2012_challenge_label_map_pr ...
TensorFlow深度学习笔记-10
在深度学习过程中我们会训练很多的模型,有些模型的训练很费时间。是否可以保存已经训练好的模型应用于后续的图像识别呢?答案自然是肯定的,本节我们来讲述模型的保存与载入。
1.模型的保存模型的保存有两个步骤:
a.创建saver对象
saver = tf.train.Saver()
b.训练完成后,保存模型
saver.save(sess,’net/my_net.ckpt’)
代码如下:
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748# coding: utf-8import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#载入数据集mnist = input_data.read_data_sets("MNIST_data",one_hot=True)#每个批次100张照片batch_size = 100#计算一 ...
TensorFlow深度学习笔记-9
1.传统神经网络缺陷:权值太多,计算量太大,需要大量样本进行训练 .
2.卷积神经网络,是一种前馈神经网络,人工神经元可以响应周围单元,可以大型图像处理。卷积神经网络包括卷积层和池化层。
卷积操作是利用卷积核对图像的关键信息进行提取。
卷积层:将图像与卷积核做卷积的过程。
池化层:对不同位置的特征进行聚合的过程。
在深度学习中,利用多个卷积、池化操作来对图像进行分类。
1.卷积卷积操作有两种模式:
a.Same padding模式
给平面补0
b.valid padding
不会超出平面外部。
2.池化池化操作有两种模式,与卷积类似:
a.Same padding模式
给平面补0
b.valid padding
不会超出平面外部。
12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717273747576777 ...
TensorFlow深度学习笔记-8
tensorboard可以以图形的方式观察训练过程,直观的显示训练情况。下面采用之前的代码,再加上tensorboard相关代码。本文主要介绍MNIST训练集的tensorboard的输入可视化。
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116# coding: utf-8import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datafrom tensorflow.contrib.tensorboard.plugins import projector#载入数 ...
TensorFlow深度学习笔记-7
tensorboard可以以图形的方式观察训练过程,直观的显示训练情况。下面采用之前的代码,再加上tensorboard相关代码。
12345678910111213141516171819202122232425262728293031323334353637383940# coding: utf-8import tensorflow as tfimport numpy as np#使用numpy随机产生100个随机点x_data=np.random.rand(100)y_data = x_data*0.1+0.3#构造一个线性模型with tf.name_scope('input'): b= tf.Variable(0.,name='b-input') k= tf.Variable(0.,name='k-input')y= k*x_data +b#二次代价函数with tf.name_scope('loss'): loss = tf.reduce_mean(tf.square(y_d ...
TensorFlow深度学习笔记-5
MNIST的结果是0-9,常用softmax函数进行分类,输出结果。
softmax函数常用于分类,定义如下:
$$softmax(x_i)=\frac{exp(x_i)}{\sum_jexp(x)}$$
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160 ...
TensorFlow深度学习笔记-6
代价函数在有些地方也称损失函数,目前常用的几种代价函数有二次代价函数、交叉熵代价函数、对数释然函数等。
二次代价函数为基本的用来计算结果与预测值之间的差异。
交叉熵代价函数可以解决二次函数导致学习慢问题
对数释然函数常用来作为softmax回归的代价函数,如果输出层神经元是sigmoid函数,可以采用交叉熵代价函数。而深度学习中更普遍的做法是将softmax作为最后一层,此时常用的代价函数是对数释然代价函数
TensorFlow深度学习笔记-4
本文主要分享一个利用神经网络来预测非线性回归的示例。
首先,定义生成我们的测试数据,即y_data = np.square(x_data) + noise,通过x_data的平方再加上噪声来生成y_data.
然后,利用神经网络,将x_data作为输入,得到预测值。然后让预测值与y_data做比较,使其差异最小。
x_data ==>神经网络中间层==>神经网络输出层==>预测值
1234567891011121314151617181920212223242526272829303132333435363738394041424344454647import tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt# 使用numpy生成200个随机点,从-0.5到0.5生成200个点x_data = np.linspace(-0.5, 0.5, 200)[:, np.newaxis]#转成二维数据noise = np.ran ...
TensorFlow深度学习笔记-3
本文主要引入一个简单的示例来阐述Tensorflow的应用。
先来一段程序,它是采用梯度下降法来训练数据。
123456789101112131415161718192021222324252627282930313233import tensorflow as tfimport numpy as np #numpy库为数学计算库,若导入失败,请先安装(pip install numpy)#使用numpy随机产生100个随机点x_data=np.random.rand(100)y_data = x_data+1#构造一个线性模型b= tf.Variable(0.)k= tf.Variable(0.)y= k*x_data +b#损失函数loss = tf.reduce_mean(tf.square(y_data-y))#定义一个梯度下降法优化器optimizer = tf.train.GradientDescentOptimizer(0.03)#最小化代价函数train = optimizer.minimize(loss)#初始化全局变量init = tf.global_variab ...
TensorFlow深度学习笔记-2
TensorFlow™ 是一个采用数据流图(data flow graphs),用于数值计算的开源软件库。节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组,即张量(tensor)。
1.Tensortensor [‘tɛnsɚ],表示张量,在TensorFlow中常用Tensor来描述矩阵信息。如下表示创建一个tensor,并将其初始化为0(zeros函数表示初始化一个tensor,并将其所有成员置位为0,缺省类型为float32)。
1234import tensorflow as tf #一般对导入库进行重命名,减少后续引用的复杂性a=tf.zeros(shape=[3,4])print(a)#输出 Tensor("zeros:0", shape=(3, 4), dtype=float32)
2.常量格式:a=tf.constant(shape),shape可以为一维矩阵,也可为多维矩阵。如下所示:
123456789101112131415b=tf.constant([[1]])c=tf.cons ...