MongoDB批量操作及与MySQL效率对比

2023-10-29

       本文主要通过批量与非批量对比操作的方式介绍MongoDB的bulkWrite()方法的使用。顺带与关系型数据库MySQL进行对比,比较这两种不同类型数据库的效率。如果只是想学习bulkWrite()的使用的看第一部分就行。

       测试环境:win7旗舰版、16G内存、i3处理器、MongoDB3.0.2、mysql5.0

一、MongoDB批量操作

        MongoDB对数据的操作分为Read Operations和Write Operations,Read Operations包含查询操作,Write Operations包含删除、插入、替换、更新几种操作。MongoDB提供客户端用bulk方式执行Write Operations,也就是批量写操作。在java driver中,对应MongoCollection的bulkWrite()方法,先来看下这个方法签名:

       BulkWriteResult  com.mongodb.client.MongoCollection.bulkWrite(List<? extends WriteModel<? extends Document>> requests)

这个方法要求传入一个List集合,集合中的元素类型为WriteModel,它表示一个可用于批量写操作的基类模型,它有以下几个子类DeleteManyModel、DeleteOneModel、 InsertOneModel、ReplaceOneModel、 UpdateManyModel、UpdateOneModel,从名字可以看出来它对应了删除、插入、替换、更新几种操作。该方法返回一个BulkWriteResult对象,代表一个成功的批量写操作结果,封装了操作结果的状态信息,如插入、更新、删除记录数等。

1、插入操作

(1)、批量插入

         代码如下,该方法接收一个包含要进行插入的Document对象的集合参数,遍历集合,使用Document构造InsertOneModel对象,每个InsertOneModel实例代表一个插入单个Document的操作,然后将该实例添加List集合中,调用bulkWrite()方法,传入存储所有插入操作的List集合完成批量插入。

	public void bulkWriteInsert(List<Document> documents){
		List<WriteModel<Document>> requests = new ArrayList<WriteModel<Document>>();
		for (Document document : documents) {
			//构造插入单个文档的操作模型
			InsertOneModel<Document>  iom = new InsertOneModel<Document>(document);
			requests.add(iom);
		}
		BulkWriteResult  bulkWriteResult = collection.bulkWrite(requests);
		System.out.println(bulkWriteResult.toString());
	}

         测试:下面通过一个main函数测试下。首先构造10万个Product实体对象,使用一个工具类将其转换成json字符串,然后解析成Document对象,保存到一个list集合中,然后调用上面编写的方法测试10万个对象插入时间。

		TestMongoDB instance = TestMongoDB.getInstance();
		ArrayList<Document> documents = new ArrayList<Document>();
		for (int i = 0; i < 100000; i++) {
			Product product = new Product(i,"书籍","追风筝的人",22.5);
			//将java对象转换成json字符串
			String jsonProduct = JsonParseUtil.getJsonString4JavaPOJO(product);
			//将json字符串解析成Document对象
			Document docProduct = Document.parse(jsonProduct);
			documents.add(docProduct);
		}
		
		System.out.println("开始插入数据。。。");
		long startInsert = System.currentTimeMillis();
		instance.bulkWriteInsert(documents);
		System.out.println("插入数据完成,共耗时:"+(System.currentTimeMillis() - startInsert)+"毫秒");

         结果:1560毫秒,多次测试基本在1.5秒左右

(2)、逐条插入

        下面再通过非批量插入10万个数据对比下,方法如下:

	public void insertOneByOne(List<Document> documents) throws ParseException{
		for (Document document : documents){
			collection.insertOne(document);
		}
	}

          测试:10万条数据

		System.out.println("开始插入数据。。。");
		long startInsert = System.currentTimeMillis();
		instance.insertOneByOne(documents);
		System.out.println("插入数据完成,共耗时:"+(System.currentTimeMillis() - startInsert)+"毫秒");

          结果:12068毫秒,差距非常大。由此可见,MongoDB批量插入比逐条数据插入效率提高了非常多。

补充:

          MongoCollection的insertMany()方法和bulkWrite()方法是等价的,测试时间差不多,不再贴图。

	public void insertMany(List<Document> documents) throws ParseException{
		//和bulkWrite()方法等价
		collection.insertMany(documents);
	}

2、删除操作

(1)、批量删除     

          掌握了批量插入,批量删除就是依葫芦画瓢了。构造DeleteOneModel需要一个Bson类型参数,代表一个删除操作,这里使用了Bson类的子类Document。重点来了,这里的删除条件使用文档的_id字段,该字段在文档插入数据库后自动生成,没插入数据库前document.get("_id")为null,如果使用其他条件比如productId,那么要在文档插入到collection后在productId字段上添加索引

collection.createIndex(new Document("productId", 1));

因为随着collection数据量的增大,查找将越耗时,添加索引是为了提高查找效率,进而加快删除效率。另外,值得一提的是DeleteOneModel表示至多删除一条匹配条件的记录,DeleteManyModel表示删除匹配条件的所有记录。为了防止一次删除多条记录,这里使用DeleteOneModel,保证一个操作只删除一条记录。当然这里不可能匹配多条记录,因为_id是唯一的。

	public void bulkWriteDelete(List<Document> documents){
		List<WriteModel<Document>> requests = new ArrayList<WriteModel<Document>>();
		for (Document document : documents) {
			//删除条件
			Document queryDocument = new Document("_id",document.get("_id"));
			//构造删除单个文档的操作模型,
			DeleteOneModel<Document>  dom = new DeleteOneModel<Document>(queryDocument);
			requests.add(dom);
		}
		BulkWriteResult bulkWriteResult = collection.bulkWrite(requests);
		System.out.println(bulkWriteResult.toString());
	}

         测试:10万条数据

		System.out.println("开始删除数据。。。");
		long startDelete = System.currentTimeMillis();
		instance.bulkWriteDelete(documents);
		System.out.println("删除数据完成,共耗时:"+(System.currentTimeMillis() - startDelete)+"毫秒");

         结果:2251毫秒

(2)、逐条删除

           来看看在非批量下的删除

	public void deleteOneByOne(List<Document> documents){
		for (Document document : documents) {
			Document queryDocument = new Document("_id",document.get("_id"));
			DeleteResult deleteResult = collection.deleteOne(queryDocument);
		}
	}

             测试:10万条数据

		System.out.println("开始删除数据。。。");
		long startDelete = System.currentTimeMillis();
		instance.deleteOneByOne(documents);
		System.out.println("删除数据完成,共耗时:"+(System.currentTimeMillis() - startDelete)+"毫秒");

             结果:12765毫秒,比批量删除效率低很多

3、更新操作

(1)、批量更新        

           再来看看批量更新,分UpdateOneModel和UpdateManyModel两种,区别是前者更新匹配条件的一条记录,后者更新匹配条件的所有记录。对于ReplaceOneModel,表示替换操作,这里也归为更新,现在以UpdateOneModel为例进行讲解。UpdateOneModel构造方法接收3个参数,第一个是查询条件,第二个参数是要更新的内容,不了解更新操作的可以看下之前的这篇博客MongoDB入门学习笔记之mongo shell和java客户端_风树种子的专栏-CSDN博客,第三个参数是可选的UpdateOptions,不填也会自动帮你new一个,代表批量更新操作未匹配到查询条件时的动作,它的upser属性值默认false,什么都不干,true时表示将一个新的Document插入数据库,这个新的Document是查询Document和更新Document的结合,但如果是替换操作,这个新的Document就是这个替换Document。这里会有个疑惑:这和匹配到查询条件后执行替换操作结果不一样吗?区别在于_id字段,未匹配查询条件时插入的新的Document的_id是新的,而成功执行替换操作,_id是原先旧的。

	public void bulkWriteUpdate(List<Document> documents){
		List<WriteModel<Document>> requests = new ArrayList<WriteModel<Document>>();
		for (Document document : documents) {
			//更新条件
			Document queryDocument = new Document("_id",document.get("_id"));
			//更新内容,改下书的价格
			Document updateDocument = new Document("$set",new Document("price","30.6"));
			//构造更新单个文档的操作模型
			UpdateOneModel<Document> uom = new UpdateOneModel<Document>(queryDocument,updateDocument,new UpdateOptions().upsert(false));
			//UpdateOptions代表批量更新操作未匹配到查询条件时的动作,默认false,什么都不干,true时表示将一个新的Document插入数据库,他是查询部分和更新部分的结合
			requests.add(uom);
		}
		BulkWriteResult bulkWriteResult = collection.bulkWrite(requests);
		System.out.println(bulkWriteResult.toString());
	}

          测试:10万条数据

		System.out.println("开始更新数据。。。");
		long startUpdate = System.currentTimeMillis();
		instance.bulkWriteUpdate(documents);
		System.out.println("更新数据完成,共耗时:"+(System.currentTimeMillis() - startUpdate)+"毫秒");

          结果:3198毫秒

(2)、逐条更新

           对比非批量下的更新

	public void updateOneByOne(List<Document> documents){
		for (Document document : documents) {
			Document queryDocument = new Document("_id",document.get("_id"));
			Document updateDocument = new Document("$set",new Document("price","30.6"));
			UpdateResult UpdateResult = collection.updateOne(queryDocument, updateDocument);
		}
	}

           测试:10万条数据

		System.out.println("开始更新数据。。。");
		long startUpdate = System.currentTimeMillis();
		instance.updateOneByOne(documents);
		System.out.println("更新数据完成,共耗时:"+(System.currentTimeMillis() - startUpdate)+"毫秒");

          结果:13979毫秒,比批量更新效率低很多

4、混合批量操作

           bulkWrite()方法可以对不同类型的写操作进行批量处理,代码如下:

	public void bulkWriteMix(){
		List<WriteModel<Document>> requests = new ArrayList<WriteModel<Document>>();
			InsertOneModel<Document>  iom = new InsertOneModel<Document>(new Document("name","kobe"));
			UpdateManyModel<Document> umm = new UpdateManyModel<Document>(new Document("name","kobe"), 
					new Document("$set",new Document("name","James")),new UpdateOptions().upsert(true));
			DeleteManyModel<Document>  dmm = new DeleteManyModel<Document>(new Document("name","James"));
			requests.add(iom);
			requests.add(umm);
			requests.add(dmm);
			BulkWriteResult bulkWriteResult = collection.bulkWrite(requests);
			System.out.println(bulkWriteResult.toString());
	}

注意:updateMany()、deleteMany()两个方法和insertMany()不同,它俩不是批量操作,而是代表更新(删除)匹配条件的所有数据。

二、与MySQL性能对比

1、插入操作

(1)、批处理插入

           与MongoDB一样,也是插入Product实体对象,代码如下
	public void insertBatch(ArrayList<Product> list) throws Exception{
		Connection conn = DBUtil.getConnection();
		try {
			PreparedStatement pst = conn.prepareStatement("insert into t_product value(?,?,?,?)");
			int count = 1;
			for (Product product : list) {
				pst.setInt(1, product.getProductId());
				pst.setString(2, product.getCategory());
				pst.setString(3, product.getName());
				pst.setDouble(4, product.getPrice());
				pst.addBatch();
				if(count % 1000 == 0){
					pst.executeBatch();
					pst.clearBatch();//每1000条sql批处理一次,然后置空PreparedStatement中的参数,这样也能提高效率,防止参数积累过多事务超时,但实际测试效果不明显
				}
				count++;
			}
			conn.commit();
		} catch (SQLException e) {
			e.printStackTrace();
		}
		DBUtil.closeConnection(conn);
	}
          JDBC默认自动提交事务,切记在获取连接后添加下面一行代码,关闭事务自动提交。
connection.setAutoCommit(false);
          测试:10万条数据
public static void main(String[] args) throws Exception {
            TestMysql test = new TestMysql();
            ArrayList<Product> list = new ArrayList<Product>();
            for (int i = 0; i < 1000; i++) {
                Product product = new Product(i, "书籍", "追风筝的人", 20.5);
                list.add(product);
            }

            System.out.println("MYSQL开始插入数据。。。");
            long insertStart = System.currentTimeMillis();
            test.insertBatch(list);
            System.out.println("MYSQL插入数据完成,共耗时:"+(System.currentTimeMillis() - insertStart)+"毫秒");
}
           结果:7389毫秒,多次测试基本7秒左右

(2)、逐条插入

         再来看看mysql逐条插入,代码如下:

	public void insertOneByOne(ArrayList<Product> list) throws Exception{
		Connection conn = DBUtil.getConnection();
		try {
			for (Product product : list) {
				PreparedStatement pst = conn.prepareStatement("insert into t_product value(?,?,?,?)");
				pst.setInt(1, product.getProductId());
				pst.setString(2, product.getCategory());
				pst.setString(3, product.getName());
				pst.setDouble(4, product.getPrice());
				pst.executeUpdate();
				//conn.commit();//加上这句每次插入都提交事务,结果将是非常耗时
			}
			conn.commit();
		} catch (SQLException e) {
			e.printStackTrace();
		}
		DBUtil.closeConnection(conn);
	}

           测试:10万条记录

		System.out.println("MYSQL开始插入数据。。。");
		long insertStart = System.currentTimeMillis();
		test.insertOneByOne(list);
		System.out.println("MYSQL插入数据完成,共耗时:"+(System.currentTimeMillis() - insertStart)+"毫秒");

           结果:8921毫秒,基本比批量慢1秒多。

2、删除操作

(1)、批处理删除

           删除的where条件是productId,这里在建表的时候没有添加主键,删除异常的慢,查了半天不知道什么原因。切记添加主键,主键默认有索引,所有能更快匹配到记录。
	public void deleteBatch(ArrayList<Product> list) throws Exception{
		Connection conn = DBUtil.getConnection();
		try {
			PreparedStatement pst = conn.prepareStatement("delete from t_product where id = ?");//按主键查,否则全表遍历很慢
			int count = 1;
			for (Product product : list) {
				pst.setInt(1, product.getProductId());
				pst.addBatch();
				if(count % 1000 == 0){
					pst.executeBatch();
					pst.clearBatch();
				}
				count++;
			}
			conn.commit();
		} catch (SQLException e) {
			e.printStackTrace();
		}
		DBUtil.closeConnection(conn);
	}
          测试:10万条数据
 
  		System.out.println("MYSQL开始删除数据。。。");
		long deleteStart = System.currentTimeMillis();
		test.deleteBatch(list);
		System.out.println("MYSQL删除数据完成,共耗时:"+(System.currentTimeMillis() - deleteStart)+"毫秒");
           结果:7936毫秒

(2)、逐条删除

           代码如下
	public void deleteOneByOne(ArrayList<Product> list) throws Exception{
		Connection conn = DBUtil.getConnection();
		PreparedStatement pst = null;
		try {
			for (Product product : list) {
				pst = conn.prepareStatement("delete from t_product where id = ?");
				pst.setInt(1, product.getProductId());
				pst.executeUpdate();
				//conn.commit();//加上这句每次插入都提交事务,结果将是非常耗时
			}
			
			conn.commit();
		} catch (SQLException e) {
			e.printStackTrace();
		}
		DBUtil.closeConnection(conn);
	}
           测试:10万条数据
  		System.out.println("MYSQL开始删除数据。。。");
		long deleteStart = System.currentTimeMillis();
		test.deleteOneByOne(list);
		System.out.println("MYSQL删除数据完成,共耗时:"+(System.currentTimeMillis() - deleteStart)+"毫秒");
           结果:8752毫秒,比批处理删除慢一秒左右

3、更新操作

(1)、批处理更新

           代码如下
	public void updateBatch(ArrayList<Product> list) throws Exception{
		Connection conn = DBUtil.getConnection();
		try {
			PreparedStatement pst = conn.prepareStatement("update t_product set price=31.5 where id=?");
			int count = 1;
			for (Product product : list) {
				pst.setInt(1, product.getProductId());
				pst.addBatch();
				if(count % 1000 == 0){
					pst.executeBatch();
					pst.clearBatch();//每1000条sql批处理一次,然后置空PreparedStatement中的参数,这样也能提高效率,防止参数积累过多事务超时,但实际测试效果不明显
				}
				count++;
			}
			conn.commit();
		} catch (SQLException e) {
			e.printStackTrace();
		}
		DBUtil.closeConnection(conn);
	}
           测试:10万条数据
		System.out.println("MYSQL开始更新数据。。。");
		long updateStart = System.currentTimeMillis();
		test.updateBatch(list);
		System.out.println("MYSQL更新数据完成,共耗时:"+(System.currentTimeMillis() - updateStart)+"毫秒");
           结果:8611毫秒

(2)、逐条更新

           代码如下
public void updateOneByOne(ArrayList<Product> list) throws Exception{
		Connection conn = DBUtil.getConnection();
		try {
			for (Product product : list) {
				PreparedStatement pst = conn.prepareStatement("update t_product set price=30.5 where id=?");
				pst.setInt(1, product.getProductId());
				pst.executeUpdate();
				//conn.commit();//加上这句每次插入都提交事务,结果将是非常耗时
			}
			conn.commit();
		} catch (SQLException e) {
			e.printStackTrace();
		}
		DBUtil.closeConnection(conn);
	}
              测试:10万条数据
		System.out.println("MYSQL开始更新数据。。。");
		long updateStart = System.currentTimeMillis();
		test.updateOneByOne(list);
		System.out.println("MYSQL更新数据完成,共耗时:"+(System.currentTimeMillis() - updateStart)+"毫秒");
              结果:9430毫秒,比批处理更新慢了1秒左右
 

三、总结

          本文主要是为了介绍bulkWrite()方法的使用,也就是MongoDB的批量写操作,通过实验可以看出MongoDB使用bulkWrite()方法进行大量数据的写操作比使用常规的方法进行写操作效率要高很多。文章也介绍了mysql几种写操作下批量和非批量的对比,可以看出他们批处理方式比非批处理快点,但没有MongoDB那么明显。对于MongoDB与mysql的比较,批量操作下,MongoDB插入、删除、更新都比mysql快,非批量操作下,MongoDB插入、删除、更新都比mysql慢。当然只是一个初略的结论,文中并没有进行100条、1000条、10000条或更大的这样不同的数据对比,以及CPU内存使用情况进行监测,有兴趣的可以尝试下。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

MongoDB批量操作及与MySQL效率对比 的相关文章

  • 选择前 n 个字符相等的行(MySQL)

    我有一张带有玩家句柄的桌子 如下所示 1 N Laka 2 N James 3 nor Brian 4 nor John 5 Player 2 6 Spectator 7 N Joe 从那里我想选择第一个 n 字符匹配的所有玩家 但我不知道
  • MySQL LIKE %string% 不够宽容。我还有什么可以用的吗?

    我有一位客户询问他们的搜索是否可以搜索公司名称 这些名称可以根据用户输入以多种格式进行搜索 例如数据库中存储的公司是 A J R Kelly Ltd 如果用户搜索 一个 J R Kelly 被发现 使用
  • Mongodb 聚合中对数组元素求和

    我有以下收藏c每个文档内的数组 id 1 k 2 2 type dog c parentId 1 p 2 2 parentId 1 p 1 4 id 2 k 4 3 type cat c parentId 2 p 5 2 parentId
  • 删除表的重复项

    In my activity logs 它包含列 material name user id mod result 这标志着测试是否通过 失败 cert links 不知何故 用户生成了两倍的条目material name与cert lin
  • 将日期差转换为年数以计算 MongoDB 中的年龄

    我正在使用以下方法来计算时间戳差异中的年龄 db getCollection person aggregate project item 1 DOB personal DOB dateDifference subtract new Date
  • 当与“<”或“>”运算符一起使用时,MySQL 不使用 DATE 上的索引吗?

    我正在使用解释来测试这些查询 col 类型是 DATE 这使用索引 explain SELECT events FROM events WHERE events date 2010 06 11 这不 explain SELECT event
  • Magento --“SQLSTATE[23000]:违反完整性约束..”客户更新

    迁移服务器后 每次尝试更新客户信息时都会出现错误 我正在使用一个客户激活插件 http www magentocommerce com magento connect vinai extension 489 customer activat
  • 有没有一种方法可以将python对象直接存储在mongoDB中而不需要序列化它们

    我在某处读到过 您可以使用 BSON 将 python 对象 更具体地说是字典 作为二进制文件存储在 MongoDB 中 但是现在我找不到任何与此相关的文档 有人知道具体如何做到这一点吗 没有办法在不序列化的情况下将对象存储在文件 数据库
  • MySQL:如何获取每个分组的x个结果数[重复]

    这个问题在这里已经有答案了 可能的重复 mysql 在 GROUP BY 中使用 LIMIT 来获取每组 N 个结果 https stackoverflow com questions 2129693 mysql using limit w
  • 计算 mysql 数据库行数的最佳方法

    在遇到 mysql 查询加载时间慢的问题后 我现在正在寻找计算行数的最佳方法 我曾经愚蠢地使用过mysql num rows 函数来做到这一点 现在意识到这是最糟糕的方法 我实际上正在制作一个分页来用 PHP 制作页面 我找到了几种计算行数
  • MongoDB 3.0 Windows 服务启动:发生系统错误 2

    我已经下载了 MongoDB Windows msi 安装并成功运行 mongod exe 和 mongo exe 命令文件执行工作正常 安装手册展示了如何创建配置文件 然后使用命令创建Windows Server sc exe creat
  • MySQL - 选择一行 - 然后相对于所选行的下一个和上一个

    我会尽力澄清这一点 我需要在不使用 id 的情况下选择特定行和该选定行的前一个相对行以及该选定行的下一个相对行 这可能吗 简而言之 上一篇和下一篇 我不能 也许我只是不知道如何 使用 id 的原因是因为它们不是按顺序排列的 正如您从这个相当
  • 在上下文中提取搜索字符串

    我正在尝试执行 MySQL 查询 在上下文中提取搜索字符串 因此 如果搜索是 mysql 我想从 body 列返回类似的内容 下载后只需几分钟MySQL安装程序即可使用 这就是我现在得到的 但它不起作用 因为它只是从正文字段中获取前 20
  • 在一个后台为MYSQL的网站上集成搜索

    我有一个位置搜索website http www jammulinks com对于一个城市 我们首先收集该城市所有可能类别的数据 如学校 学院 百货商店等 并将其信息存储在单独的表中 因为每个条目除了名称 地址和电话号码外都有不同的详细信息
  • MySQL Python 关于重复键更新值

    我正在研究使用 python 将 JSON 数据上传到 MySQL 我需要在插入语句中包含 ON DUPLICATE KEY UPDATE VALUES 但在 Python 中遇到了问题 如果我运行以下代码 一切正常 import json
  • pymongo复制辅助读取引用不起作用

    我们有 MongoDB 2 6 和 2 副本集 并且我们使用pymongo驱动程序并使用以下 url 连接 Mongodb 副本集 mongodb admin email protected cdn cgi l email protecti
  • MySQL集群启动失败

    这不是我第一次创建ndbcluster 但我没有收到这样的问题 我正在关注本手册 https hub docker com r mysql mysql cluster by mysql团队 我正在使用回显的默认配置在此 GitHub 存储库
  • 日期时间与时间戳字段

    我是 MySQL 数据库的新手 您是否建议在表创建中使用日期时间或时间戳字段以及原因 我正在使用 MySQL 5 7 和 innodb 引擎 Thanks 我会用TIMESTAMP对于任何需要自动管理的事情 因为它支持诸如ON UPDATE
  • 在 Meteor 中运行示例的问题

    我正在测试 Meteor 示例 这是我运行时看到的meteor在待办事项示例中 Unexpected mongo exit code 100 Restarting Unexpected mongo exit code 100 Restart
  • 使用来自另一个数据库的选择查询更新 mysql 表

    我有两个数据库 我想用另一个数据库表中的值更新一个表 我正在使用以下查询 但它不起作用 UPDATE database1 table1 SET field2 database2 table1 field2 WHERE database1 t

随机推荐

  • 福布斯发布区块链50强 这5家中国公司上榜

    福布斯发布区块链50强 这5家中国公司上榜 附榜单 福布斯今日 2月20日 在官网发布第二届 区块链50强 Blockchain 50 榜单 据福布斯评选标准 入选 Blockchain 50 榜单的公司必须每年营收不少于10亿美元或估值超
  • 欧拉角 图解释

    定义 先引wiki上的定义 欧拉角 由三个角度组成 在特定坐标系下用于描述刚体的orientation 简单来说 就是绕一个三维坐标系统下的三个基轴旋转三个角度 可以用来表示物体通过各种绕七绕八的转 最终转到的那种形态 orientatio
  • wifi类物联产品配网之web

    文章目录 wifi类物联产品配网之web web配网介绍 web配网实现 wifi类物联产品配网之web 上接wifi类物联产品配网前言 web配网介绍 web主要连接设备建立的wifi 热点后 以网页的形式 让用户输入wifi ssid和
  • Mybatis

    1 简介 1 1 持久化 数据持久化 持久化就是将程序的数据在持久状态和瞬时状态转换的过程 内存 断电即失 数据库 Jdbc io文件持久化 为什么需要持久化 有些对象 不能让他丢掉 内存太贵了 1 2 持久层 Dao层 Service层
  • LLM-大模型训练-步骤(二)-预训练/Pre-Training(1):全参数预训练(Full-Param Pre-Training)【对LLaMA等模型进一步全量参数预训练】【中文无监督学习语料】

    GitHub项目 KnowLM 一 全参数预训练 Full Param Pre training 使用中文语料对LLaMA等模型进行进一步全量预训练 在尽可能保留原来的英文和代码能力的前提下 进一步提高模型对于中文理解能力和丰富模型的知识储
  • moveToThread的最简单用法(依葫芦画瓢即可)(使得线程也更偏向于信号槽的使用方法)

    file main cpp Copyright C 2010 dbzhang800 All rights reserved include
  • 蓝桥杯2015年第六届真题-奇怪的数列

    题目 题目链接 题解 实现题 太简单了 就是遍历字符串 拼接一下就可以了 代码 include
  • Jvm参数优化

    Jvm参数优化 背景 1 系统上线规划容量 分析 2 垃圾回收器选择 吞吐量和响应时间 垃圾回收器选择 3 规划各个分区的比例大小 4 对象年龄对少移动到老年代合适 5 对象多大放到老年代 6 垃圾回收器CMS老年代参数优化 7 配置OOM
  • 更换硬盘_「心得」群晖NAS升级硬盘——硬盘篇:硬盘的更换与RAID设置思路

    经过大概一周左右的时间 终于断断续续的把我的群晖NAS的硬盘升级完了 把原来3TB 2的RAID 1 变成3TB 3的RAID 5 同时把额外单独的3TB冷备份硬盘 也升级成了6TB 为什么花费了一周左右的时间 当中包括前期的文件校验 新硬
  • C#中的多线程 - 并行编程

    转载至 https blog gkarch com threading part5 html 1并行编程Permalink 在这一部分 我们讨论 Framework 4 0 加入的多线程 API 它们可以充分利用多核处理器 并行 LINQ
  • 宝塔部署nodejs接口项目及mysql数据库教程

    上传项目文件至宝塔目录文件夹 我这里上传的server文件 在网站菜单添加node项目 填写node项目信息 项目端口需要填写项目真实的启动端口 需要绑定域名的可以添加域名管理 添加域名后需要开启外网映射 新建mysql数据库 导入数据库数
  • Qt窗体背景绘图和图片显示篇

    今天重新研究Qt窗体绘图和图片显示 1 窗体的背景上绘制线段和区域 2 窗体背景显示图片以及图片缩放 3 无边框窗体显示以及无边框窗体的移动 4 自定义widget形状 1 在窗体上执行绘制线段和区域等操作 图1 有时候需要在窗体的背景上绘
  • Pig-使用PigLatin操作员工表和部门表

    前提条件 安装好hadoop2 7 3 Linux系统下 安装好pig Linux系统下 准备源数据 打开终端 新建emp csv文件 nano emp csv 输入内容如下 保存退出 7369 SMITH CLERK 7902 1980
  • JetBrain Rider控制台 输出乱码问题

    JetBrain Rider控制台 输出乱码问题 新安装的Rider默认在Windows下运行控制台输出中文会出现乱码 黑窗口运行不会乱码 想必是控制台编码方式的问题 解决方案 点击help gt Edit Custom VM Option
  • Android screencap截屏指令

    查看帮助 注意 有的网友错误使用 screencap v 结果差不多 因为系统不能识别 v 就自动打印出帮助信息 screencap hscreencap husage screencap hp d display id FILENAME
  • 如何在uniapp中优雅地使用WebView

    这里给大家分享我在网上总结出来的一些知识 希望对大家有所帮助 从webview页面传值到uniapp中 官方文档已经很详细了 这里给大家上我的实战代码 首先在webview页面中引入相关依赖
  • 机器学习——深度学习(Deep Learning)

    Deep Learning是机器学习中一个非常接近AI的领域 其动机在于建立 模拟人脑进行分析学习的神经网络 最近研究了机器学习中一些深度学习的相关知识 本文给出一些很有用的资料和心得 Key Words 有监督学习与无监督学习 分类 回归
  • Cesium 简介

    Cesium 简介 一 Cesium 是什么 Cesium 是一个开源 JavaScript 库 用于 3D 2D 2 5D 地图可视化 Cesium 由 AGI 公司计算机图形开发小组与 2011 年研发的 Cesium 一词来源于化学元
  • 基于照片扫描技术的游戏网格贴图制作的相关(上篇)

    参考来源 Agisoft PhototScna User Manual http www agisoft com pdf photoscan pro 1 4 en pdf Unite 2018 基于照片建模的游戏制作流程 http foru
  • MongoDB批量操作及与MySQL效率对比

    本文主要通过批量与非批量对比操作的方式介绍MongoDB的bulkWrite 方法的使用 顺带与关系型数据库MySQL进行对比 比较这两种不同类型数据库的效率 如果只是想学习bulkWrite 的使用的看第一部分就行 测试环境 win7旗舰