avatar
文章
324
标签
40
分类
15

Helloeuler
搜索
深入解析Linux 常用命令--cat
发表于2017-12-22|Linux命令
1.概述cat常用于查看文件内容。 2.显示文件内容(显示字符)cat -A 显示文件内容,包括结束符、TAB。其中结束符以$显示,TAB以^I显示,空格不显示。 [root@smart Desktop]# cat test.md AUTHOR Written by Richard M. Stallman and David MacKenzie. [root@smart Desktop]# cat -A test.md AUTHOR$ ^IWritten by Richard M. Stallman and David MacKenzie.$ $ 3.显示行号cat -b 显示非空行行号 cat -n 显示所有行行号 [root@smart Desktop]# cat -b test.md 1 AUTHOR 2 Written by Richard M. Stallman and David MacKenzie. 3 REPORTING BUGS 4 Report ls bugs to bug ...
深入解析Linux 常用命令--arping
发表于2017-12-21|Linux命令
1.概述arping常用于检测IP是否已经存在、某个IP的MAC的地址等。 2.arping各参数含义a.无参数,持续的向特定IP地址请求arp 12345[root@smart Desktop]# arping 192.168.1.105 ARPING 192.168.1.105 from 192.168.1.120 eth0Unicast reply from 192.168.1.105 [3C:BD:3E:61:13:08] 1.324msUnicast reply from 192.168.1.105 [3C:BD:3E:61:13:08] 104.092msUnicast reply from 192.168.1.105 [3C:BD:3E:61:13:08] 8.286ms b. -c count,发送arp包个数 12345678910111213141516171819[root@smart Desktop]# arping -c 1 192.168.1.105 ARPING 192.168.1.105 from 192.168.1.120 eth0Unic ...
深入解析Linux 常用命令--ip
发表于2017-12-21|Linux命令
1.概述ip命令用于显示/操作路由、设备、策略、隧道等信息。 2.用法 ip [ OPTIONS ] OBJECT { COMMAND | help } OPTIONS := { -V[ersion] | -s[tatistics] | -r[esolve] | -f[amily] { inet | inet6 | ipx | dnet | link } | -o[neline] } OBJECT := { link | addr | addrlabel | route | rule | neigh | tunnel | maddr | mroute | monitor } COMMAND :={ add | del |show | list} a.Options-V 打印ip的版本号 -s 输出详细的统计信息 b.Objectlink 网络设备 address/addr 设备ip地址 neighbor ...
深入解析Linux 常用命令--ping
发表于2017-12-20|Linux命令
1.概述ping常用于检测网络状况。 2.各参数含义-c count,当ping到一定数量后终止ping。 -i interval ,ping包间隔 -I interface address,网卡,IP所在网卡ping出 -s packetsize,包大小,包含8字节icmp头 -S 指定源地址 12345678910111213141516171819202122232425262728293031323334353637383940414243[root@smart Desktop]# ping 192.168.1.1PING 192.168.1.1 (192.168.1.1) 56(84) bytes of data.64 bytes from 192.168.1.1: icmp_seq=1 ttl=64 time=0.576 ms64 bytes from 192.168.1.1: icmp_seq=2 ttl=64 time=0.790 ms^C--- 192.168.1.1 ping statistics ---2 packets transmi ...
CentOS OOM问题分析
发表于2017-12-19|经验总结
近日,部署应用程序的CentOS操作系统频繁kill应用进程,感到非常意外。通过对系统日志进行分析,发现syslog中输出out of memery,LowMem不足。 经过查阅大量的资料,分析发现是由于32位系统寻址空间的限制。32位linux将内存空间分为三部分:DMA、Normal(LowMem)、HighMem。其范围如下: Zone PFN ranges: DMA 0x00000000 -> 0x00FFFFFF 16M Normal 0x01000000 -> 0x37FFFFFF 880M HighMem 0x38000000 -> 其中,DMA为系统直接存储器空间,LowMem为系统低端内存,主要为Linux内核使用,HighMem为通用内存。(注:64位系统基本都是LowMem) 一般情况下,16G内存的IBM服务器LowMem约700M,系统启动后剩余约600M。 经过对各个进程进行分析后发现,有一个进程会对内核协议栈参数进行优化,使得socket缓冲过大,从而导致LowMem耗尽, ...
TensorFlow深度学习笔记-11
发表于2017-12-16|深度学习
Inception是Google训练好的一个图像识别模型,我们可以利用它来对我们的图像进行识别。 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899# coding: utf-8import tensorflow as tfimport osimport numpy as npimport refrom PIL import Imageimport matplotlib.pyplot as pltclass NodeLookup(object): def __init__(self): label_lookup_path = 'inception_model/imagenet_2012_challenge_label_map_pr ...
TensorFlow深度学习笔记-10
发表于2017-12-10|深度学习
在深度学习过程中我们会训练很多的模型,有些模型的训练很费时间。是否可以保存已经训练好的模型应用于后续的图像识别呢?答案自然是肯定的,本节我们来讲述模型的保存与载入。 1.模型的保存模型的保存有两个步骤: a.创建saver对象 ​ saver = tf.train.Saver() b.训练完成后,保存模型 ​ saver.save(sess,’net/my_net.ckpt’) 代码如下: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748# coding: utf-8import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#载入数据集mnist = input_data.read_data_sets("MNIST_data",one_hot=True)#每个批次100张照片batch_size = 100#计算一 ...
TensorFlow深度学习笔记-9
发表于2017-12-08|深度学习
1.传统神经网络缺陷:权值太多,计算量太大,需要大量样本进行训练 . 2.卷积神经网络,是一种前馈神经网络,人工神经元可以响应周围单元,可以大型图像处理。卷积神经网络包括卷积层和池化层。 卷积操作是利用卷积核对图像的关键信息进行提取。 卷积层:将图像与卷积核做卷积的过程。 ​ 池化层:对不同位置的特征进行聚合的过程。 在深度学习中,利用多个卷积、池化操作来对图像进行分类。 1.卷积卷积操作有两种模式: a.Same padding模式 ​ 给平面补0 b.valid padding 不会超出平面外部。 2.池化池化操作有两种模式,与卷积类似: a.Same padding模式 ​ 给平面补0 b.valid padding 不会超出平面外部。 12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717273747576777 ...
TensorFlow深度学习笔记-8
发表于2017-12-05|深度学习
tensorboard可以以图形的方式观察训练过程,直观的显示训练情况。下面采用之前的代码,再加上tensorboard相关代码。本文主要介绍MNIST训练集的tensorboard的输入可视化。 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116# coding: utf-8import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datafrom tensorflow.contrib.tensorboard.plugins import projector#载入数 ...
TensorFlow深度学习笔记-7
发表于2017-12-04|深度学习
tensorboard可以以图形的方式观察训练过程,直观的显示训练情况。下面采用之前的代码,再加上tensorboard相关代码。 12345678910111213141516171819202122232425262728293031323334353637383940# coding: utf-8import tensorflow as tfimport numpy as np#使用numpy随机产生100个随机点x_data=np.random.rand(100)y_data = x_data*0.1+0.3#构造一个线性模型with tf.name_scope('input'): b= tf.Variable(0.,name='b-input') k= tf.Variable(0.,name='k-input')y= k*x_data +b#二次代价函数with tf.name_scope('loss'): loss = tf.reduce_mean(tf.square(y_d ...
TensorFlow深度学习笔记-5
发表于2017-12-01|深度学习
MNIST的结果是0-9,常用softmax函数进行分类,输出结果。 softmax函数常用于分类,定义如下: ​ $$softmax(x_i)=\frac{exp(x_i)}{\sum_jexp(x)}$$ 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160 ...
TensorFlow深度学习笔记-6
发表于2017-12-01|深度学习
代价函数在有些地方也称损失函数,目前常用的几种代价函数有二次代价函数、交叉熵代价函数、对数释然函数等。 二次代价函数为基本的用来计算结果与预测值之间的差异。 交叉熵代价函数可以解决二次函数导致学习慢问题 对数释然函数常用来作为softmax回归的代价函数,如果输出层神经元是sigmoid函数,可以采用交叉熵代价函数。而深度学习中更普遍的做法是将softmax作为最后一层,此时常用的代价函数是对数释然代价函数
TensorFlow深度学习笔记-4
发表于2017-11-30|深度学习
本文主要分享一个利用神经网络来预测非线性回归的示例。 首先,定义生成我们的测试数据,即y_data = np.square(x_data) + noise,通过x_data的平方再加上噪声来生成y_data. 然后,利用神经网络,将x_data作为输入,得到预测值。然后让预测值与y_data做比较,使其差异最小。 x_data ==>神经网络中间层==>神经网络输出层==>预测值 1234567891011121314151617181920212223242526272829303132333435363738394041424344454647import tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt# 使用numpy生成200个随机点,从-0.5到0.5生成200个点x_data = np.linspace(-0.5, 0.5, 200)[:, np.newaxis]#转成二维数据noise = np.ran ...
TensorFlow深度学习笔记-3
发表于2017-11-12|深度学习
本文主要引入一个简单的示例来阐述Tensorflow的应用。 先来一段程序,它是采用梯度下降法来训练数据。 123456789101112131415161718192021222324252627282930313233import tensorflow as tfimport numpy as np #numpy库为数学计算库,若导入失败,请先安装(pip install numpy)#使用numpy随机产生100个随机点x_data=np.random.rand(100)y_data = x_data+1#构造一个线性模型b= tf.Variable(0.)k= tf.Variable(0.)y= k*x_data +b#损失函数loss = tf.reduce_mean(tf.square(y_data-y))#定义一个梯度下降法优化器optimizer = tf.train.GradientDescentOptimizer(0.03)#最小化代价函数train = optimizer.minimize(loss)#初始化全局变量init = tf.global_variab ...
TensorFlow深度学习笔记-2
发表于2017-11-11|深度学习
TensorFlow™ 是一个采用数据流图(data flow graphs),用于数值计算的开源软件库。节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组,即张量(tensor)。 1.Tensortensor [‘tɛnsɚ],表示张量,在TensorFlow中常用Tensor来描述矩阵信息。如下表示创建一个tensor,并将其初始化为0(zeros函数表示初始化一个tensor,并将其所有成员置位为0,缺省类型为float32)。 1234import tensorflow as tf #一般对导入库进行重命名,减少后续引用的复杂性a=tf.zeros(shape=[3,4])print(a)#输出 Tensor("zeros:0", shape=(3, 4), dtype=float32) 2.常量格式:a=tf.constant(shape),shape可以为一维矩阵,也可为多维矩阵。如下所示: 123456789101112131415b=tf.constant([[1]])c=tf.cons ...
1…202122
avatar
juyin
文章
324
标签
40
分类
15
最新文章
Linux 5.10内核__vfs_getxattr函数用法2025-07-30
Linux __vfs_getxattr函数用法及示例,要求不能2025-07-30
Linux内核vfs_getxattr接口不使用睡眠函数的实现2025-07-30
Linux内核接口__vfs_getxattr的用法及示例2025-07-30
Linux读取文件扩展属性方法总结2025-07-30
分类
  • Linux2
  • Linux Kernel2
  • Linux kernel1
  • Linux命令20
  • deepseek240
  • openEuler4
  • 个人1
  • 内存管理1
标签
LinuxSSHuseraddvdsoLinux Kernel内存管理virt_to_page物理地址转换TensorFlow深度学习openEulerwslopenEuler embeddedqemu社区提交安全LSM工具makefileglibc, musl一致性软件依赖命令C调试libclilog4cplus生长因子GRE协议编码风格栈溢出磁盘阵列GCCgcc插件Linux加固KASLRSELinuxMACdeepseek
归档
  • 七月 202590
  • 六月 202551
  • 五月 202557
  • 四月 202533
  • 三月 20259
  • 二月 20254
  • 一月 20251
  • 九月 20241
网站资讯
文章数目 :
324
本站访客数 :
本站总访问量 :
Copyrigh ©2016 - 2025 By juyin
Powered by Hexo Theme(Butterfly)
搜索
数据库加载中