• 今天的主角就是protobuf-net


    前言,我要解决的问题是,.NET的序列化问题,以前序列化Model,一旦当这个Model的字段发生了变化,那么就惨了。无法读取。必须重新来过。今天搞定它啦。

    image

    image

    点击build-data进行创建data数据。

    private void button1_Click(object sender, EventArgs e) {
                List<User> list = new List<User>();
                for (int i = 0; i < 1000; i++) {
                    //list.Add(new User() { UserID = i, UserName = "u" + i.ToString(), UserName2 = "u2" + i.ToString() });
                    list.Add(new User() { UserID = i, UserName = "u" + i.ToString() });
                }
    
                //protobuff 
                string path = AppDomain.CurrentDomain.BaseDirectory + "protobuf.txt";
                using (Stream file = File.Create(path)) {
                    Serializer.Serialize<List<User>>(file, list);
                    file.Close();
                }
            }

    看看txt文件中的数据样子。

    image

    点击show-data显示刚刚创建的数据。

    image

    无论增或减User类中的字段。

    [ProtoContract]
        public class User {
            [ProtoMember(1, IsRequired = true)]
            public int UserID { get; set; }
    
            [ProtoMember(2, IsRequired = true)]
            public string UserName { get; set; }
    
            //[ProtoMember(3)]
            //public string UserName2 { get; set; }
    
        }

    均可以正常读取。欧叶。

    如果打算不以文件的形式传输,那么只能是byte[]的形式进行传输。这里可以发挥您的想象力啦。

    using (MemoryStream file = new MemoryStream()) {
                    Serializer.Serialize<List<User>>(file, list);
                    //file.Close();
                    byte[] re = file.ToArray();
                    file.Close();
                    //只能通过byte[] ,来进行传输。
    
                    MemoryStream file2 = new MemoryStream(re);
                    //Stream file2 = File.OpenRead(path);
                    List<User> list2 = Serializer.Deserialize<List<User>>(file2);
                }

    源码下载:http://files.cnblogs.com/renzhe/protobufTest.zip

  • 相关阅读:
    log.count/logrt.count/log/logrt
    datetime
    差集交集
    pandas 空df对象判断
    pyinstaller
    pysimplegui
    vi编辑实用命令
    hadoop实用命令
    查找redis安装目录
    spark streaming 读取kafka数据保存到parquet文件,redis存储offset
  • 原文地址:https://www.cnblogs.com/renzhe/p/4229878.html
Copyright © 2020-2023  润新知