go实现thrift的网络传输性能及需要注意问题示例解析
作者:donnie4w
thrift简介
thrift应该是目前支持编程语言种类最多的跨语言 rpc服务框架, http://thrift.apache.org/
thrift实现了完整的网络服务,所以一般使用thrift时,会使用到thrift的服务框架。当然,也可以用自己已经实现的网络服务,用io流对接thrift接口的输入输出流实现thrift的接入。
无论是用thrift的网络实现,还是自己实现的网络服务,只要对接thrift,在调用thrift接口实现rpc时,都是走thrift的网络传输方式。
thrift的网络传输实现方式 不适合也不支持压力较大的网络传输需求。实际上,调用一次thrift接口,并不是只调一次网络io写数据,而是拆分为多次写数据传送。
调用一个thrift 的接口发送数据时,thrift会将这个操作拆分为几个操作:
调用thrift的方法时:thrift会找到这个方法所在的对象,调用write方法,
在write方法在,分别对各个参数,依次调用 writeFieldBegin,writeXXX(具体参数类型) ,WriteFieldStop 等函数
每次调用也同时调用网络io写相应数据.
以目前最新的thrift-0.18.1实现为例
go的实现
func (p *ItnetPonMergeArgs) Write(ctx context.Context, oprot thrift.TProtocol) error { if err := oprot.WriteStructBegin(ctx, "PonMerge_args"); err != nil { return thrift.PrependError(fmt.Sprintf("%T write struct begin error: ", p), err) } if p != nil { if err := p.writeField1(ctx, oprot); err != nil { return err } if err := p.writeField2(ctx, oprot); err != nil { return err } } if err := oprot.WriteFieldStop(ctx); err != nil { return thrift.PrependError("write field stop error: ", err) } if err := oprot.WriteStructEnd(ctx); err != nil { return thrift.PrependError("write struct stop error: ", err) } return nil } //第一个参数 func (p *ItnetPonMergeArgs) writeField1(ctx context.Context, oprot thrift.TProtocol) (err error) { if err := oprot.WriteFieldBegin(ctx, "pblist", thrift.LIST, 1); err != nil { //WriteFieldBegin return thrift.PrependError(fmt.Sprintf("%T write field begin error 1:pblist: ", p), err) } if err := oprot.WriteListBegin(ctx, thrift.STRUCT, len(p.Pblist)); err != nil { return thrift.PrependError("error writing list begin: ", err) } for _, v := range p.Pblist { if err := v.Write(ctx, oprot); err != nil { return thrift.PrependError(fmt.Sprintf("%T error writing struct: ", v), err) } } if err := oprot.WriteListEnd(ctx); err != nil { return thrift.PrependError("error writing list end: ", err) } if err := oprot.WriteFieldEnd(ctx); err != nil { return thrift.PrependError(fmt.Sprintf("%T write field end error 1:pblist: ", p), err) } return err } //第二个参数,操作类似第一个参数 func (p *ItnetPonMergeArgs) writeField2(ctx context.Context, oprot thrift.TProtocol) (err error) { if err := oprot.WriteFieldBegin(ctx, "id", thrift.I64, 2); err != nil { return thrift.PrependError(fmt.Sprintf("%T write field begin error 2:id: ", p), err) } if err := oprot.WriteI64(ctx, int64(p.ID)); err != nil { return thrift.PrependError(fmt.Sprintf("%T.id (2) field write error: ", p), err) } if err := oprot.WriteFieldEnd(ctx); err != nil { return thrift.PrependError(fmt.Sprintf("%T write field end error 2:id: ", p), err) } return err }
调用Pon(ItnetPonMergeArgs)方法的thrift传输顺序
Write->
- writeField1->WriteFieldBegin-> WriteByte-> io
- -> Write16 -> io
- ->WriteBinary-> Write32 -> io
- ->Write -> io
- writeField2->WriteFieldBegin-> WriteByte -> io
- ->Write16 -> io
- ->Write64-> Write -> io
- WriteFieldStop ->io
可以看到,一次简单的方法调用,如果方法中有两个参数, 则至少有8次io流写数据调用。
如果参数多时,或是参数中一个结构体的变量多时,则会有更多的io流写数据调用。
在海量的网络传输中,这样的传输方式,网络io流写数据调用成倍增加,海量网络io数据写入导致性能急剧下降。
thrift设计的传输层提供了zlib协议压缩,在zlib压缩发送的情况下,将数据进行了整体压缩收发,zlib分为2次发送后,接收端再解压;
以go为例子:
可以在 compress/flate 看到zlib的写数据最终io写入调用:
func (d *compressor) syncFlush() error { if d.err != nil { return d.err } d.sync = true d.step(d) if d.err == nil { d.w.writeStoredHeader(0, false) //第一次调用 d.w.flush() //第二次调用 d.err = d.w.err } d.sync = false return d.err } //两次io数据写入
所以,在海量调用thrift方法的情况下,zlib模式的性能要远超非zlib的情况。但是zlib压缩会比较消耗内存,大量使用时可能导致频繁gc,也可能导致性能下降。当然,即使如此,大部分情况下zlib传输依然比非zlib传输的性能要好许多。
其他语言的实现
比如 java:
public void write(org.apache.thrift.protocol.TProtocol oprot, SelectByIdxLimit_args struct) throws org.apache.thrift.TException { struct.validate(); oprot.writeStructBegin(STRUCT_DESC); if (struct.name != null) { oprot.writeFieldBegin(NAME_FIELD_DESC); //io调用 oprot.writeString(struct.name); //io调用 oprot.writeFieldEnd(); } if (struct.column != null) { oprot.writeFieldBegin(COLUMN_FIELD_DESC); //io调用 oprot.writeString(struct.column); //io调用 oprot.writeFieldEnd(); } if (struct.value != null) { oprot.writeFieldBegin(VALUE_FIELD_DESC); //io调用 { oprot.writeListBegin(new org.apache.thrift.protocol.TList(org.apache.thrift.protocol.TType.STRING, struct.value.size())); for (java.nio.ByteBuffer _iter49 : struct.value) { oprot.writeBinary(_iter49); //io调用 } oprot.writeListEnd(); } oprot.writeFieldEnd(); } oprot.writeFieldBegin(START_ID_FIELD_DESC); //io调用 oprot.writeI64(struct.startId); //io调用 oprot.writeFieldEnd(); oprot.writeFieldBegin(LIMIT_FIELD_DESC); //io调用 oprot.writeI64(struct.limit); //io调用 oprot.writeFieldEnd(); oprot.writeFieldStop(); //io调用 oprot.writeStructEnd(); }
传输方式都是相似的
实现方式各个语言都相似,当然,数据写入顺序肯定是一样的。
以上就是go实现thrift的网络及传输性能需要注意问题示例解析的详细内容,更多关于go thrift的网络传输的资料请关注脚本之家其它相关文章!