xlrd-xlwt python--excel操作
[toc]
xlrd1.简述:
xlrd是读取excel表格数据;
支持 xlsx和xls 格式的excel表格;
三方模块安装方式:pip3 install xlrd;
模块导入方式: import xlrd
2.xlrd模块的基本操作Xler的操作主要分两步:其一时获取book对象,其二book对象再次进行excel的读取操作。
2.1打开excel文件获取book对象
xlrd.open_workbook(filename[,logfile,file_contents,…])
如果filename 文件名不存在,则会报错 FilenotFoundError。
如果filename 文件名存在,则会返回一个xrld.book.Book 对象。 import xlrd
12Workbook = xlrd.open_workbook("C:\\Users\li\Desktop\银联测试案例.xls")print(Workbook)
2.2获取xlrd.book.Book 对象中的所有sheet名称
Names = Workbook.sheet_n ...
UML基础语法教程
UML基础语法教程官方教程
1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950@startuml test' 元素声明abstract abstractabstract class "abstract class"annotation annotationcircle circle() circle_short_formclass classdiamond diamond<> diamond_short_formentity entityenum enuminterface interface'类之间的关系Class01 <|-- Class02Class03 *-- Class04Class05 o-- Class06Class07 .. Class08Class09 -- Class10Class11 <|.. Class12Class13 --> Class14Class15 .. ...
八数码问题-8puzzle
Princeton Algorithm 8 Puzzle–99分解答–javaPython实现
完整代码及测试数据完整代码及测试数据
问题简介八数码:是指在3x3的矩阵中,其中有8个格子放置成1-8,剩下一个格子是空格。能够移动和空格相邻的格子到空格,直到这个矩阵满足每一行依次从左到右读取是有序,得到最后得到1-8有序,最后一个格子是空格。下图展示了一个案例:
推广二维N×N的棋盘对于任意大小的二维N×N的棋盘:
如何判断问题是否有解?结论先说结论:
一个状态表示成一维的形式,求出:除0之外所有数字的逆序数之和,也就是每个数字前面比它大的数字的个数的和,称为这个状态的逆序。
若两个状态的逆序奇偶性相同,则可相互到达,否则不可相互到达。
N是奇数时,当且仅当当前棋盘的逆序对是偶数的时候有解。
N是偶数时,当且仅当当前棋盘的逆序对数加上空格所在的行(行数从0开始算)是奇数的时候有解。
证明
根据棋局的逆序对定义,不论N为奇数或偶数,空格在同一行的左右移动不会修改逆序对数的奇偶性;
不论N为奇数或偶数,空格上下移动,相当于跨过N-1个格子,那么逆序的改变可能为±N-1,±N-3,±N ...
Java8 中通过 Stream 对列表操作的几种方法
Java8 中通过 Stream 对列表操作的几种方法1. Stream 的distinct()方法–去重因为 String 类已经覆写了 equals() 和 hashCode() 方法,所以可以去重成功。
12345678910111213141516171819202122@Testpublic void listDistinctByStreamDistinct() { // 1. 对于 String 列表去重 List<String> stringList = new ArrayList<String>() {{ add("A"); add("A"); add("B"); add("B"); add("C"); }}; out.print("去重前:"); for (String s : stringList) { out.prin ...
强化学习--Reinforcement learning
强化学习概念定义强化学习(Reinforcement learning,RL)讨论的问题是一个智能体(agent) 怎么在一个复杂不确定的 环境(environment) 里面去极大化它能获得的奖励。通过感知所处环境的 状态(state) 对 动作(action) 的 **反应(reward)**, 来指导更好的动作,从而获得最大的 **收益(return)**,这被称为在交互中学习,这样的学习方法就被称作强化学习。
Reinforcement learning is learning what to do—how to map situations to actions——so as to maximize a numerical reward signal.—– Richard S. Sutton and Andrew G. Barto 《Reinforcement Learning: An Introduction II》
强化学习
在强化学习过程中,智能体跟环境一直在交互。智能体在环境里面获取到状态,智能体会利用这个状态输出一个动作,一个决策。然后这个决策会放到环境之中去 ...
conda指令使用指南
创建Anaconda 环境创建环境前需要对conda进行换源
1vim ~/.condarcCopy to clipboardErrorCopied
添加
12345channels: - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/ssl_verify: trueCopy to clipboardErrorCopied
保存并退出(:wq)
12345678910111213# 创建Anaconda 环境conda create --name <env_name> <package_names># ex: conda create -n python3 python=3.8 numpy pandas# ex: conda create ...
Hello World
Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hexo, you can find the answer in troubleshooting or you can ask me on GitHub.
Quick Start111Create a new post1$ hexo new "My New Post"
More info: Writing
Run server1$ hexo server
More info: Server
Generate static files1$ hexo generate
More info: Generating
Deploy to remote sites1$ hexo deploy
More info: Deployment