二进制就是逢二进一,而我们习惯的是十进制,就是逢十进一,其实就是平时计数的时候用的符号不一样,十进制是(0~9)10个符号,而二进制只有0和1两个,因为当超过1的时候就会产生进位,比如二进制加法1+1=10(注意不要和十进制的十混淆,这个是二进制一零,等于十进制的二)。
至于base64就是一套加密算法呗,有点类似于数学的某个公式,你把你的数字输入到这个公式就会产生另外一个数字,加密就是把你的信息按照一定的方法转换成别的信息,如果不知道解密方法,是无法理解信息的内容的,大概就是这样的意思。还不理解请追问
简单的异或加密,自己不写是损失
==========
#include cstdio
using namespace std;
void binByte(char *bin, unsigned char b){
char i=7;
while(b0){
bin[i]=(b1)+'0';
b=1;
i--;
}
while(i=0){
bin[i--]='0';
}
}
int main()
{
char *src="NCTV";
char bin[9]={0};
unsigned char *p=(unsigned char*)src;
unsigned char pwd=0x59;//1011001
unsigned char code;
while(*p!='\0'){
code=*p^pwd;
binByte(bin,*p);
printf("%c %u %s 加密成 %u ",*p,*p,bin,code);
binByte(bin,code);
printf("%s 解密成",bin);
code^=pwd;
binByte(bin,code);
printf(" %c %u %s",code,code,bin);
printf("\n");
p++;
}
return 0;
}
==============
输出:
N 78 01001110 加密成 23 00010111 解密成 N 78 01001110
C 67 01000011 加密成 26 00011010 解密成 C 67 01000011
T 84 01010100 加密成 13 00001101 解密成 T 84 01010100
V 86 01010110 加密成 15 00001111 解密成 V 86 01010110
========
首先,可以说两者是相同的。因为对于存储在硬盘上的文件来说:都要用二进制的方式来存储的。
从这个意义上说,两者是相同的。
对二进制文件进行的加密、解密方法同样适用于文本文件。
如果说两者完全相同,那又不尽然。因为你用文本编辑器打开一个二进制文件的时候,多半会看到乱码,而打开文本文件,就不会看到乱码。这个实践表明,这两者是不同的。
那么为什么会这样呢?因为文本文件是二进制文件的一个子集。不光文本文件,一切其它格式的文件都是二进制文件的子集。例如jpg,avi,ppt,exe等文件也都是二进制文件的子集。
二进制文件可以作为计算机中所有文件的统称。
文件存储的时候,字节是最小的单元。一个字节可以存储0到255这256个数字。
某些数字在文本编辑器中,可以呈现为英文字符,例如:数字 97 就显示为英文的小写字母 a 。
文本文件只存储可见的字符。在只有英文的Ascii码文本文件中,每个字符的数值都不会大于 127 ,也不会等于127,除了数字 13 表示的回车,数字 10 表示的换行,数字9表示Tab缩进,其他的字符数值都大于32,数值32显示为空格。
二进制文件中有许多不可见的字符。所谓的不可见是:在普通的文本编辑器中没有定义该字符的显示方式。
当使用GB2312的汉字编码以后,用相邻的两个字节表示一个汉字。原本不可见的字符变的可见了。这时候,文本文件中的字节有许多高位置1,大致上使用了0到255中的每一个数。为什么说大致呢?因为你去查GB2312的码表,会发现每个区FF的位置都是空着的,也就是不使用数字255。这是为什么呢?
数字255在某些情况下也是-1,这个数字可以看作文本文件的禁区。也就是说,二进制文件中,每个字节都可以在0到255之间任意的挑选;文本文件的字节则不能使用数字255。
GB2312码表0的位置也是空出来的,这是为什么呢?
答案是:为了能兼容传统的c语言程序。
如果c语言程序在处理一个字符串,遇到了0,那么程序认为字符串结束了。所以,文本文件的字节中不能使用数字0,以避免程序处理到一半就终止了。
而数字255更是不能出现的,255在表示有符号的char时,就是-1,在c语言中定义为EOF(End Of File)。也就是说,某些传统的c语言程序,例如getchar( )在返回-1的时候,程序员就认为该文件结束了。所以,这个数字不能出现在文本文件的内容中。
传统意义上,文本文件有禁区,最初的0和最终的255,是文本文件的禁区。
所有不可见的Ascii码也是禁区。
而二进制文件没有任何约束。
各种对文本文件的编码方式,都会尽量避免打破这个禁区。但在Unicode定义以后,这个禁区被打破了。Unicode定义了BOM,也就是在文本文件的开头加入几个不可见的字节,来表示这个文件的编码方式。
从这以后,文本文件中就可以存储不可见的字符了,不再是那么纯粹的文本文件。UTF-8编码的文件本来可以不使用BOM的,但微软也为它设计了BOM,这是一个字符,编码是(Unicode FEFF),转化为UTF8形式以后是(EF BB BF)。
尽管打破了禁区,但只限定于文件开头的两三个字节。
这可以看作一种黑客的解决问题方式,不优雅,也不美观。因为黑客有办法在文本文件中插入更多的不可见字符,普通人不知道如何操作。
有了 BOM以后,出现了字节FF,这意味着数字255不再是禁区。虽然不显示出来,但是它像一根针,插入文本文件的开头。
但有了UTF-16编码以后,禁区彻底打破了,文本文件的编码如果按照UTF-16的方式存储,除了开头有BOM以外,所有不可见的ASCII码和扩展Ascii码都可以成为某个字符的一部分。也就是说,没有任何禁区。文本文件中可以存储任何数值的字节。
文本文件可以在文本编辑器中显示,二进制文件可以在二进制编辑器中显示。没有什么东西不能显示。
所以,如果再问文本文件和二进制文件的区别是什么,答案就是:
没有区别。
先放总结( ):
1 对称加密加密与解密使用的是同样的密钥,所以速度快,但由于需要将密钥在网络传输,所以安全性不高。
2 非对称加密使用了一对密钥,公钥与私钥,所以安全性高,但加密与解密速度慢。
3 解决的办法是将对称加密的密钥使用非对称加密的公钥进行加密,然后发送出去,接收方使用私钥进行解密得到对称加密的密钥,然后双方可以使用对称加密来进行沟通。
对称加密:
非对称加密:
base64编码介绍: ;wfr=spiderfor=pc
基本步骤:
1 将每三个字节作为一组,一共是24个二进制位;
2 将这24个二进制位分为四组,每个组有6个二进制位;
3 在每组前面加两个00,扩展成32个二进制位,即四个字节;
4 根据下表,得到扩展后的每个字节的对应符号,这就是Base64的编码值。
为什么要用base64编码?
客户端与服务端进行数据交互时经常需要用到base64编码,在某种程度上来说兼顾了字符集大小和编码后数据长度。
Unicode 与 UTF-8 的关系: