易飞用户加密解密
2024-04-19 10:40:49 262KB 用户加密解密
1
MATLAB实现的DES加解密
2024-04-18 17:47:49 44KB MATLAB DES
1
MATLAB实现的仿射密码加解密
2024-04-18 17:21:24 42KB MATLAB
1
MATLAB实现的维吉尼亚密码加解密
2024-04-18 17:14:36 40KB MATLAB
1
使用方法:java -jar fileDecrypt-1.0.1.jar <文件路径|文件夹路径> 然后源文件或源文件夹会在同级文件夹下生成一个 temp2023010101 的临时文件夹 原理:利用加密文件在绿盾环境电脑上可以正常打开。既然软件能直接打开,说明软件访问的是源文件不是绿盾的快捷文件,通过程序直接利用系统底层拷贝将源文件拷贝至新文件夹,我们就可以看到未加密的文件了。 注意事项: 1. 如果是路径包含空格,可以将路径用英文双引号包起来,即 java -jar fileDecrypt-1.0.1.jar "C:\Program Files\test.txt" 2. 需要java8及其以上
2024-04-18 08:17:52 413KB java
1
主要介绍了Java加密解密和数字签名完整代码示例,具有一定参考价值,需要的朋友可以了解下。
2024-04-17 11:32:15 85KB java 加密解密代码 java 数字签名
1
成都市医保局加解密方法工具类及调用demo(医保电子处方中心)V1.0
2024-04-16 15:10:23 10.34MB 加密解密 医保接口
1
最近做项目,需要加密解密SQLite,但是官方免费版不提供加解密功能,于是用Winform手写了个在windows上加解密SQLite的程序。解密将新密码设为空即可。详情见本人使用说明博客。
2024-04-15 17:13:46 1.29MB sqlite winform
1
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
2024-04-15 14:56:00 183KB 爬虫 python 数据收集
sm2国密算法加解密,签名、验签QT工具的源代码(包含sm2,sm3和sm4源码)。 环境我使用的QT5.14的IDE编译,其他版本qt未测试。不过仅使用了几个简单控件应该关系不大。 详细介绍参见个人博客:SM2 (含SM3、SM4)国密算法工具QT版,彻底搞懂国密算法的使用 https://blog.csdn.net/yyz_1987/article/details/120501076
2024-04-08 20:43:26 2.09MB 源码