时间:2021-07-01 10:21:17 帮助过:55人阅读
先启动MySQL服务器 net start mysql
进入MySQL服务器MySQL -uroot -p(这里写你的数据库密码) (-P是从哪个端口进)
我第一次操作是就是因为电脑上 有 MySQL MySQL57 MySQLla 三个服务 引起端口冲突
导致 我 找不到相应的数据
create database 创建数据库
show databases 显示MySQL服务上的数据库
use 数据库 使用数据库
create table 表名() 创建数据表
例如 create table user(id int,name char,age int)
desc 表名 获取表的结构
show tables 显示当前数据库中的 表
drop table 表名 删除数据表
rename table 原表名 to 新表名 修改数据表的名称
insert into userone (id,name) values (1,"bbb"); 添加数据
select * from 表名; 查询数据表中的全部数据
select username from userone; 查询一列
select * from userone username="avc"; 按条件查询 查询一条数据
update userone set password="qqq" where username="111"; 更新某一条数据数据
delete from userone where username="111"; 删除某一条数据
要使用mongodb数据库 首先要
安装 mongodb 数据库
npm install mongodb
启动mongodb服务
net start mongodb
进入 mongodb数据库
mongo
show dbs 显示mongodb中的所有数据库
use 数据库名 创建数据库
db.dropDatabase(数据库名字) 删除数据库
db 查看当前的数据库
db.createCollection("数据库名称") 创建集合
show tables/collections 显示集合
db.集合名称.drop() 删除集合
db.person.insert({"name":"gg","age":12}); 插入数据】
db.person.save({"name":"aa","age":12}) 插入数据 如果插入当前集合id值相同的 save 不会报错 而insert会报错
db.person.remove({内容}) 删除数据
db.person.find() 查询当前集合所有的数据
db.person.find({"age":{$lt:12}}) 带符号的 查询 大于 $gt 小于 $lt 不等于$ne
小于或等于$lte 大于或等于 $gte
db.person.update({条件},{内容},true,false) 更新数据
带修改器的更新文档
db.person.update({条件},{$set:{内容},true,true})
第三个true 如果没有查询条件的数据 执行插入的操作
第四个 true 批量修改 false反之
$inc 用于数字类型 可以为指定键对应的值进行加减操作
举例来说,在传统的关系型数据库中,一个COUNT类型的操作会锁定数据集,这样可以保证得到“当前”情况下的精确值。这在某些情况下,例 如通过ATM查看账户信息的时候很重要,但对于Wordnik来说,数据是不断更新和增长的,这种“精确”的保证几乎没有任何意义,反而会产生很大的延 迟。他们需要的是一个“大约”的数字以及更快的处理速度。
对于一个层级式的数据结构来说,如果要将这样的数据使用扁平式的,表状的结构来保存数据,这无论是在查询还是获取数据时都十分困难。
GridFS是一个出色的分布式文件系统,可以支持海量的数据存储。 内置了GridFS了MongoDB,能够满足对大数据集的快速范围查询。④内置Sharding。提供基于Range的Auto Sharding机制:一个collection可按照记录的范围,分成若干个段,切分到不同的Shard上。
现在网络上的很多NoSQL开源数据库完全属于社区型的,没有官方支持,给使用者带来了很大的风险。而开源文档数据库MongoDB背后有商业公司10gen为其提供供商业培训和支持。
而且MongoDB社区非常活跃,很多开发框架都迅速提供了对MongDB的支持。不少知名大公司和网站也在生产环境中使用MongoDB,越来越多的创新型企业转而使用MongoDB作为和Django,RoR来搭配的技术方案。
在使用场合下,千万级别的文档对象,近10G的数据,对有索引的ID的查询不会比mysql慢,而对非索引字段的查询,则是全面胜出。 mysql实际无法胜任大数据量下任意字段的查询,而mongodb的查询性能实在让我惊讶。写入性能同样很令人满意,同样写入百万级别的数 据,mongodb比我以前试用过的couchdb要快得多,基本10分钟以下可以解决。补上一句,观察过程中mongodb都远算不上是CPU杀手。
所以事务要求严格的系统(如果银行系统)肯定不能用它。(这点和优点①是对应的)
关于其原因,在官方的FAQ中,提到有如下几个方面:
1、空间的预分配:为避免形成过多的硬盘碎片,mongodb每次空间不足时都会申请生成一大块的硬盘空间,而且申请的量从64M、128M、256M那 样的指数递增,直到2G为单个文件的最大体积。随着数据量的增加,你可以在其数据目录里看到这些整块生成容量不断递增的文件。
2、字段名所占用的空间:为了保持每个记录内的结构信息用于查询,mongodb需要把每个字段的key-value都以BSON的形式存储,如果 value域相对于key域并不大,比如存放数值型的数据,则数据的overhead是最大的。一种减少空间占用的方法是把字段名尽量取短一些,这样占用 空间就小了,但这就要求在易读性与空间占用上作为权衡了。我曾建议作者把字段名作个index,每个字段名用一个字节表示,这样就不用担心字段名取多长 了。但作者的担忧也不无道理,这种索引方式需要每次查询得到结果后把索引值跟原值作一个替换,再发送到客户端,这个替换也是挺耗费时间的。现在的实现算是 拿空间来换取时间吧。
3、删除记录不释放空间:这很容易理解,为避免记录删除后的数据的大规模挪动,原记录空间不删除,只标记“已删除”即可,以后还可以重复利用。
4、可以定期运行db.repairDatabase()来整理记录,但这个过程会比较缓慢
mysql数据库和mongodb数据库的相关操作以及两个数据库的区别
标签:观察 地方 网站 一致性 collect tar 大数 rom 数据操作