發行說明 - Kafka - 版本1.0.0
以下是Kafka 1.0.0發行版中解決的JIRA問題的摘要。有關該版本的完整文檔,入門指南以及有關該項目的信息,請參閱Kafka項目網站。
有關升級的注意事項:在升級群集之前,請仔細閱讀此版本的 升級文檔。升級說明討論關于不兼容的重要信息以及突破性變化,性能變化以及可能影響您的Kafka生產部署的任何其他變更。
最新版本的文檔可以在http://kafka.apache.org/documentation.html找到 。
新功能
[ KAFKA-4602 ] - KIP-72允許對傳入請求消耗的內存進行綁定
[ KAFKA-4819 ] - 公開API的活動任務的狀態
[ KAFKA-5341 ] - 添加UnderMinIsrPartitionCount和每個分區UnderMinIsr指標
[ KAFKA-5651 ] - KIP-182:減少數據流DSL過載,并允許更容易地使用自定義存儲引擎
[ KAFKA-5694 ] - 添加ChangeReplicaDirRequest和DescribeReplicaDirRequest(KIP-113)
[ KAFKA-5738 ] - 為所有Kafka費率度量添加累積計數屬性
[ KAFKA-5746 ] - 增加新的指標來支持健康檢查
[ KAFKA-5854 ] - 將SASL身份驗證失敗作為客戶端中的不可回溯異常處理
起色
[ KAFKA-1595 ] - 刪除不推薦的和較慢的Scala JSON解析器
[ KAFKA-2376 ] - 添加Kafka Connect指標
[ KAFKA-3741 ] - 允許通過StreamsConfig設置默認主題配置
[ KAFKA-4108 ] - 改進DumpLogSegments偏移量 - 解碼器輸出格式
[ KAFKA-4260 ] - 改進配置監聽器的文檔= PLAINTEXT://0.0.0.0:9092
[ KAFKA-4322 ] - StateRestoreCallback開始和結束指示
[ KAFKA-4380 ] - 更新干凈關機文件的使用說明。
[ KAFKA-4416 ] - 為控制臺客戶添加一個“--group”選項
[ KAFKA-4501 ] - 支持Java 9
[ KAFKA-4504 ] - 在Topic級別的retention.bytes屬性的詳細信息不清楚它們如何影響分區大小
[ KAFKA-4763 ] - 處理JBOD(KIP-112)的磁盤故障
[ KAFKA-4764 ] - 改進SASL認證失敗的診斷
[ KAFKA-5076 ] - 刪除JDK9中默認隱藏的java.xml.bind。*類的用法
[ KAFKA-5077 ] - 使服務器啟動腳本針對Java 9
[ KAFKA-5096 ] - 只記錄無效的用戶配置并用正確的配置覆蓋
[ KAFKA-5233 ] - 標點語義(KIP-138)
[ KAFKA-5330 ] - 使用Connect中的每個任務轉換器
[ KAFKA-5358 ] - 消費者工具應分別計算再平衡時間
[ KAFKA-5363 ] - 增加批量恢復和恢復統計數據的能力。
[ KAFKA-5384 ] - KIP-162:默認啟用刪除主題
[ KAFKA-5410 ] - 修復Connector中的taskClass()方法名和SinkTask中的flush()簽名
[ KAFKA-5439 ] - 在集成測試中添加檢查以驗證線程是否已關閉
[ KAFKA-5454 ] - 添加一個新的Kafka Streams示例物聯網導向
[ KAFKA-5461 ] - KIP-168:為每個群集添加GlobalTopicCount指標
[ KAFKA-5468 ] - 將源偏移量提交消息更改為信息以匹配接收器行為
[ KAFKA-5470 ] - 在kafka-run-class中將-XX:+ DisableExplicitGC替換為-XX:+ ExplicitGCInvokesConcurrent
[ KAFKA-5485 ] - 流不應該暫停任務兩次
[ KAFKA-5495 ] - 在文檔中替換棄用的“ConsumerOffsetChecker”
[ KAFKA-5515 ] - 考慮從Segments類中刪除日期格式
[ KAFKA-5516 ] - 以類似的方式格式化可驗證的生產者/消費者產出
[ KAFKA-5525 ] - 流量復位工具應該有相同的控制臺輸出,有或沒有干運行
[ KAFKA-5542 ] - 改進LeaderEpochFileCache.endOffsetFor()的Java文檔
[ KAFKA-5547 ] - 如果沒有主題描述訪問,則返回主題授權失敗
[ KAFKA-5549 ] - 解釋client.id
只是用作Streams中的前綴
[ KAFKA-5557 ] - 在StreamPartitionAssignor中使用logPrefix
[ KAFKA-5602 ] - 為ducker-ak添加 - 定制ducktape標志
[ KAFKA-5629 ] - 控制臺用戶在命令行提供時會覆蓋auto.offset.reset屬性,而不會發出警告。
[ KAFKA-5657 ] - 在描述連接器時,連接REST API應該包括連接器類型
[ KAFKA-5695 ] - 在AuthorizerIntegrationTest中測試DeleteRecordsRequest
[ KAFKA-5726 ] - 僅使用Pattern的KafkaConsumer.subscribe()重載沒有ConsumerRebalanceListener
[ KAFKA-5743 ] - 所有ducktape服務應將其文件存儲在/ mnt的子目錄中
[ KAFKA-5744 ] - ShellTest:為試圖運行不存在的程序添加測試,錯誤返回
[ KAFKA-5750 ] - 在SimpleAclAuthorizer類中將拒絕的日志消息提升為INFO
[ KAFKA-5754 ] - 重構流使用LogContext
[ KAFKA-5755 ] - 重構生產者使用LogContext
[ KAFKA-5762 ] - 重構AdminClient以使用LogContext
[ KAFKA-5763 ] - 重構NetworkClient以使用LogContext
[ KAFKA-5768 ] - 將ducktape版本升級到0.7.1,并使用新的kill_java_processes
[ KAFKA-5783 ] - 實現KafkaPrincipalBuilder接口,支持SASL(KIP-189)
[ KAFKA-5820 ] - 刪除StreamThread中不需要的同步關鍵字
[ KAFKA-5822 ] - 統一記錄主題分區
[ KAFKA-5856 ] - 添加AdminClient.createPartitions()
[ KAFKA-5915 ] - 支持在Java 9中映射/直接緩沖區的映射
[ KAFKA-5920 ] - 將SSL身份驗證失敗作為客戶端中的不可修復異常處理
[ KAFKA-5932 ] - 避免在FlushListeners中調用fetchPrevious
[ KAFKA-5947 ] - 處理交易生產者和KafkaAdminClient的認證失敗
[ KAFKA-5958 ] - 用戶StoreListener不適用于全球商店
[ KAFKA-5985 ] - 提到需要關閉商店迭代器
[ KAFKA-6004 ] - 啟用自定義身份驗證插件將錯誤消息返回給客戶端
[ KAFKA-6025 ] - Kafka Streams文件有問題
竊聽器
[ KAFKA-2105 ] - MetadataRequest中的客戶端上的NullPointerException
[ KAFKA-2360 ] - kafka-consumer-perf-test.sh腳本幫助信息打印無用的參數。
[ KAFKA-3356 ] - 刪除ConsumerOffsetChecker,在0.9中棄用0.11
[ KAFKA-3623 ] - 使KStreamTestDriver從ExternalResource擴展
[ KAFKA-3856 ] - 清理Kafka Streams構建器API
[ KAFKA-3986 ] - completedReceives可以包含封閉的頻道
[ KAFKA-4585 ] - KIP-163:偏移提取和提交請求使用相同的權限
[ KAFKA-4669 ] - 當NetworkClient.handleCompletedReceives拋出異常時,KafkaProducer.flush掛起
[ KAFKA-4785 ] - 來自內部重新分區主題的記錄應始終使用RecordMetadataTimestampExtractor
[ KAFKA-4830 ] - 增加KStream.print()以允許用戶在打印的字符串中傳遞額外的參數
[ KAFKA-4856 ] - 從多個線程調用KafkaProducer.close()可能會導致虛假錯誤
[ KAFKA-4860 ] - Kafka批處理文件不支持帶空格的路徑
[ KAFKA-4913 ] - 創建一個窗口存儲與一個段引發除零錯誤
[ KAFKA-5127 ] - 在案件“無”未被使用的情況下,將模式匹配替換為foreach
[ KAFKA-5140 ] - 片狀ResetIntegrationTest
[ KAFKA-5152 ] - Kafka Streams在啟動過程中啟動關機后保持恢復狀態
[ KAFKA-5167 ] - 由于LockException而重新平衡之后,流任務會卡住
[ KAFKA-5225 ] - StreamsResetter不允許自定義使用者屬性
[ KAFKA-5239 ] - 生產者緩沖池在鎖內分配內存。
[ KAFKA-5379 ] - ProcessorContext.appConfigs()應返回解析/驗證值
[ KAFKA-5402 ] - 當客戶端配額未啟用時,不應創建JmxReporter獲取kafka.server的指標
[ KAFKA-5412 ] - 使用connect-console-sink / source.properties引發與“file”屬性相關的異常
[ KAFKA-5417 ] - 當SASL / SSL連接同時標記為CONECTED和DISCONNECTED時,客戶端將獲得不一致的連接狀態
[ KAFKA-5431 ] - LogCleaner由于org.apache.kafka.common.errors.CorruptRecordException而停止
[ KAFKA-5464 ] - StreamsKafkaClient不應該使用StreamsConfig.POLL_MS_CONFIG
[ KAFKA-5469 ] - 創建的狀態更改日志主題未正確記錄
[ KAFKA-5481 ] - 在啟用跟蹤級別的情況下,ListOffsetResponse未以正確的方式記錄
[ KAFKA-5484 ] - 重構kafkatest碼頭支持
[ KAFKA-5487 ] - 滾動升級測試
[ KAFKA-5506 ] - bin / kafka-consumer-groups.sh無法查詢偏移量
[ KAFKA-5507 ] - kafka-run-class.sh不檢查空的$ CLASSPATH
[ KAFKA-5508 ] - 修改主題的文檔
[ KAFKA-5512 ] - KafkaConsumer:閑置時的內存分配率較高
[ KAFKA-5534 ] - 即使沒有找到偏移量,KafkaConsumer offsetsForTimes也應該包含結果分區
[ KAFKA-5535 ] - 轉換 - 在墓碑事件上轉化價值
[ KAFKA-5544 ] - 刪除分區時,應刪除LastStableOffsetLag指標
[ KAFKA-5548 ] - SchemaBuilder不驗證輸入。
[ KAFKA-5556 ] - KafkaConsumer.commitSync拋出IllegalStateException:嘗試從未失敗的未檢索異常
[ KAFKA-5566 ] - 不穩定的測試QueryableStateIntegrationTest.shouldAllowToQueryAfterThreadDied
[ KAFKA-5567 ] - 通過改變主題分區提交偏移的轉換應該引用原始主題分區
[ KAFKA-5576 ] - 通過更新rocksdb版本支持Power平臺
[ KAFKA-5579 ] - SchemaBuilder.type(Schema.Type)不應該允許null。
[ KAFKA-5587 ] - 處理器未捕獲的異常:NullPointerException
[ KAFKA-5595 ] - SocketServer中的非法狀態; 嘗試使用另一個發送進行發送
[ KAFKA-5599 ] - ConsoleConsumer: - 不推薦使用新用戶選項
[ KAFKA-5600 ] - 組加載回歸導致過時的元數據/偏移量緩存
[ KAFKA-5603 ] - 流關閉僵尸任務時不應該中止交易
[ KAFKA-5607 ] - 改善SocketServer中的錯誤處理以減少非法狀態
[ KAFKA-5608 ] - 超時啟動Jmx工具導致系統測試失敗
[ KAFKA-5610 ] - KafkaApis.handleWriteTxnMarkerRequest可以在分區移出時返回UNSUPPORTED_FOR_MESSAGE_FORMAT錯誤
[ KAFKA-5619 ] - 在所有工具中建議使用新消費者選項
[ KAFKA-5620 ] - doSend()中的SerializationException掩碼類轉換異常
[ KAFKA-5623 ] - ducktape kafka服務:不要假設服務包含num_nodes
[ KAFKA-5630 ] - 在CorruptRecordException之后,消費者循環遍歷相同的記錄
[ KAFKA-5643 ] - 使用_DUCKTAPE_OPTIONS對執行測試沒有影響
[ KAFKA-5644 ] - 瞬態測試失?。篟esetConsumerGroupOffsetTest.testResetOffsetsToZonedDateTime
[ KAFKA-5656 ] - 支持KafkaMbean中不存在某些屬性的批量屬性請求
[ KAFKA-5663 ] - LogDirFailureTest系統測試失敗
[ KAFKA-5668 ] - 可查詢狀態窗口存儲范圍掃描僅返回一個存儲的結果
[ KAFKA-5679 ] - 添加日志記錄以區分內部和外部啟動的Kafka關閉
[ KAFKA-5698 ] - 根據TopologyDescription.toString()中的名稱后綴對處理器節點進行排序
[ KAFKA-5701 ] - 單元測試shouldTogglePrepareForBulkLoadDuringRestoreCalls失敗
[ KAFKA-5704 ] - 自動創建主題會導致舊集群失敗
[ KAFKA-5711 ] - 批量恢復應該處理刪除
[ KAFKA-5717 ] - [流]在國家商店的'空'值
[ KAFKA-5720 ] - 在Jenkins中,kafka.api.SaslSslAdminClientIntegrationTest失敗,出現org.apache.kafka.common.errors.TimeoutException
[ KAFKA-5730 ] - 消費者應確保同步和異步偏移提交之間的一致順序
[ KAFKA-5733 ] - 系統測試得到異常RocksDBException:db比options.num_levels更多的級別
[ KAFKA-5735 ] - 客戶端和代理不一致地處理客戶端ID
[ KAFKA-5737 ] - KafkaAdminClient線程應該是守護進程
[ KAFKA-5745 ] - 在成為領導者之前,Partition.makeLeader()應該將HW轉換為OffsetMetadata
[ KAFKA-5752 ] - 刪除主題,重新創建主題立即刪除新主題的時間索引
[ KAFKA-5753 ] - 在MacOS上ShellTest.testRunProgramWithErrorReturn失敗
[ KAFKA-5756 ] - 刷新同步問題
[ KAFKA-5758 ] - 重新分配主題的分區可能會對其他主題產生不利影響
[ KAFKA-5765 ] - 將合并()從StreamsBuilder移動到KStream
[ KAFKA-5767 ] - 如果IBP <1.0.0,卡夫卡服務器應該停止,并且有日志目錄失敗
[ KAFKA-5771 ] - org.apache.kafka.streams.state.internals.Segments#段方法返回不正確的結果時段添加亂序
[ KAFKA-5774 ] - WorkerSinkTask失敗異常應該包括原因
[ KAFKA-5787 ] - StoreChangeLogReader需要恢復在初始化后添加的分區
[ KAFKA-5790 ] - 如果引發異常,SocketServer.processNewResponses不應該跳過響應
[ KAFKA-5797 ] - StoreChangelogReader應該對代理端元數據不可用
[ KAFKA-5804 ] - 在寫入日志時,ChangeLoggingWindowBytesStore需要保留重復項
[ KAFKA-5818 ] - KafkaStreams狀態轉換不正確
[ KAFKA-5829 ] - 通過減少不必要的快照文件刪除,在不干凈關閉后啟動加速代理
[ KAFKA-5833 ] - 在InterruptedException中重置線程中斷狀態
[ KAFKA-5837 ] - 如果使用默認的油門/超時,則重新分配分區命令失敗
[ KAFKA-5843 ] - 只有在kafka_mx4jenable設置為true時才應執行Mx4jLoader.maybeLoad
[ KAFKA-5862 ] - 從Streams重置工具中刪除ZK依賴關系
[ KAFKA-5864 ] - ReplicaFetcherThread不應該因脫機日志目錄中的副本而死亡
[ KAFKA-5865 ] - 啟用冪等級的批處理可能會導致數據丟失。
[ KAFKA-5867 ] - Kafka Connect應用程序在啟動時應記錄信息消息
[ KAFKA-5872 ] - SslSelectorTest.testMuteOnOOM中的暫時故障
[ KAFKA-5879 ] - 控制器在處理IsrChangeNotification事件時應讀取最新的IsrChangeNotification znodes
[ KAFKA-5908 ] - CompositeReadOnlyWindowStore范圍提取不會在以不同的開始和結束時間提取時返回所有值
[ KAFKA-5918 ] - 修正Kafka Streams中的小錯別字和錯誤
[ KAFKA-5953 ] - JDBC驅動程序可能會斷開連接類加載器隔離
[ KAFKA-5954 ] - 連接系統測試失敗:ConnectRestApiTest
[ KAFKA-5956 ] - StreamBuilder#表和StreamsBuilder#globalTable應該使用物化的serdes
[ KAFKA-5957 ] - 生產者IllegalStateException由于第二次中止批次釋放
[ KAFKA-5959 ] - NetworkClient中的NPE
[ KAFKA-5960 ] - 生產者使用不受支持的ProduceRequest版本來對付老的經紀人
[ KAFKA-5967 ] - CompositeReadOnlyKeyValueStore#approximateNumEntries()中的負值檢查無效
[ KAFKA-5968 ] - 關閉期間刪除所有經紀人指標
[ KAFKA-5970 ] - 由于DelayedProduce和組的鎖定而導致的死鎖
[ KAFKA-5976 ] - RequestChannel.sendReponse使用TRACE日志記錄記錄NetworkSend的大小不正確
[ KAFKA-5979 ] - kip-120改變了內部流的主題命名
[ KAFKA-5980 ] - FailOnInvalidTimestamp不記錄錯誤
[ KAFKA-5986 ] - 流狀態當日志記錄被禁用時,恢復永不完成
[ KAFKA-5989 ] - disableLogging()會導致分區不被占用
[ KAFKA-5995 ] - 將AlterReplicaDir重命名為AlterReplicaDirs
[ KAFKA-6003 ] - 沒有數據的分區的復制提取程序線程無法啟動
[ KAFKA-6005 ] - 拒絕來自具有空白協議類型/協議列表的第一個成員的JoinGroup請求
[ KAFKA-6008 ] - Kafka Connect:未啟動的workerID會在啟動過程中導致異常
[ KAFKA-6010 ] - 瞬態故障:MemoryRecordsBuilderTest.convertToV1WithMixedV0AndV2Data
在TransactionBounceTest期間,markErrorMeter中的NoSuchElementException異常[ KAFKA-6012 ]
[ KAFKA-6015 ] - RecordAccumulator中的NPE
[ KAFKA-6016 ] - 在reassign_partitions_test中使用冪等生產者
[ KAFKA-6026 ] - 如果遇到較窄的爭用條件,KafkaFuture超時將失敗
[ KAFKA-6027 ] - 系統測試失敗:LogDirFailureTest
[ KAFKA-6030 ] - 原木清理比例計算中的整數溢出
[ KAFKA-6042 ] - Kafka請求處理程序死鎖并關閉群集。
[ KAFKA-6053 ] - 在升級系統測試中創建ProducerRecord時出現NoSuchMethodError
[ KAFKA-6055 ] - Windows上的運行工具由于JVM配置中的輸入錯誤而失敗
[ KAFKA-6070 ] - ducker-ak:將ipaddress和enum34依賴添加到docker映像
[ KAFKA-6087 ] - 掃描插件。路徑需要支持相關的符號鏈接
[ KAFKA-6093 ] - 主題刪除后副本目錄未被刪除
[ KAFKA-6100 ] - 流快速入門在Windows上崩潰Java
[ KAFKA-6101 ] - 重新連接到經紀人不會成指數退縮
[ KAFKA-6116 ] - 在領導選舉期間由于過度采伐造成的主要表現問題
[ KAFKA-6119 ] - Kafka011事務性生產者的無聲數據丟失
[ KAFKA-6131 ] - 如果txns同時完成,事務標記有時會被丟棄
[ KAFKA-6134 ] - 分區重新分配期間控制器上的內存使用率高
任務
[ KAFKA-5708 ] - 更新杰克遜依賴(從2.8.5到2.9.x)
[ KAFKA-5884 ] - 在Java 9上運行時啟用PowerMock測試
[ KAFKA-5977 ] - 將RocksDB依賴性升級到合法可接受的版本
測試
[ KAFKA-5742 ] - 支持在系統測試中通過ZK chroot
[ KAFKA-6104 ] - 為ClusterConnectionStates添加單元測試
子任務
[ KAFKA-2507 ] - 用org.apache.kafka.common.requests替換ControlledShutdown {Request,Response}
[ KAFKA-2959 ] - 刪除臨時映射以反序列化RequestChannel中的函數
[ KAFKA-4593 ] - 重新平衡回調過程中的任務遷移可能會導致已過時的任務IllegalStateException
[ KAFKA-4643 ] - 改進StreamsKafkaClient的測試覆蓋率
[ KAFKA-4653 ] - 改進RocksDBStore的測試覆蓋率
[ KAFKA-4655 ] - 改進CompositeReadOnlySessionStore的測試覆蓋率
[ KAFKA-4656 ] - 改進CompositeReadOnlyKeyValueStore的測試覆蓋率
[ KAFKA-4658 ] - 改進測試覆蓋范圍InMemoryKeyValueLoggedStore
[ KAFKA-4659 ] - 改進CachingKeyValueStore的測試覆蓋率
[ KAFKA-4661 ] - 提高測試覆蓋率UsePreviousTimeOnInvalidTimestamp
[ KAFKA-4868 ] - 優化RocksDb配置以實現快速恢復/批量加載
[ KAFKA-5006 ] - KeyValueStore.put可能會拋出與當前投入無關的異常
[ KAFKA-5134 ] - 用zkUtils.getChildren替換zkClient.getChildren方法
[ KAFKA-5157 ] - 在反序列化期間處理損壞數據的選項
[ KAFKA-5314 ] - 改善國有商店的異常處理
[ KAFKA-5342 ] - 區分事務性生產者的流產故障
[ KAFKA-5372 ] - 意外的狀態轉換死于PendingShutdown
[ KAFKA-5388 ] - 用相同的zkUtils方法替換zkClient.subscribe *更改方法
[ KAFKA-5389 ] - 用zkUtils.pathExists替換zkClient.exists方法
[ KAFKA-5391 ] - 用等效的zkUtils方法替換zkClient.delete *方法
[ KAFKA-5494 ] - 冪等生產者不應該要求max.in.flight.requests.per.connection = 1
[ KAFKA-5501 ] - 引入異步ZookeeperClient
[ KAFKA-5531 ] - 檢查所有流測試中的異常處理
[ KAFKA-5597 ] - 自動生成發件人發件人指標
[ KAFKA-5650 ] - 為自定義存儲引擎提供一個簡單的方法使用流式存儲(KIP-182)
[ KAFKA-5653 ] - 向KTable添加新的API方法
[ KAFKA-5654 ] - 向KGroupedStream添加新的API方法
[ KAFKA-5655 ] - 將新的API方法添加到KGroupedTable
[ KAFKA-5670 ] - 添加拓撲并棄用拓撲構建器
[ KAFKA-5671 ] - 添加StreamsBuilder并棄用KStreamBuilder
[ KAFKA-5673 ] - 重構KeyValueStore層次結構,以便MeteredKeyValueStore是最外層的存儲
[ KAFKA-5689 ] - 重構WindowStore層次結構,使Metered Store成為最外層的存儲區
[ KAFKA-5727 ] - 添加原型項目以及“編寫應用程序”的Web文檔。
[ KAFKA-5749 ] - 重構SessionStore層次結構
[ KAFKA-5776 ] - 添加Trogdor故障注入守護進程
[ KAFKA-5777 ] - 為Trogdor Fault注入守護進程添加ducktape集成
[ KAFKA-5793 ] - 加強可能返回OutOfOrderSequence的情況
[ KAFKA-5806 ] - 修復trogdor協調器關閉時的瞬態單元測試失敗
[ KAFKA-5815 ] - 添加打印類和KStream#打?。ù蛴。?br>
[ KAFKA-5816 ] - 向KStream添加生產類和新的重載
[ KAFKA-5817 ] - 添加序列化類和KStream groupBy和groupByKey重載
[ KAFKA-5819 ] - 添加連接類和相關的KStream連接重載
[ KAFKA-5823 ] - 更新文件
[ KAFKA-5832 ] - 將消費類和重載添加到StreamBuilder
[ KAFKA-5839 ] - 升級指南doc更改為KIP-130
[ KAFKA-5844 ] - 將groupBy(KeyValueMapper,序列化)添加到KTable
[ KAFKA-5852 ] - 添加過濾器,filterNot,mapValues和Materialized到KTable
[ KAFKA-5853 ] - 添加WindowedKStream接口和實現
[ KAFKA-5873 ] - 將物化重載添加到StreamBuilder
[ KAFKA-5888 ] - 事務系統測試應檢查消息順序
[ KAFKA-5899 ] - 為連接器創建連接度量標準
[ KAFKA-5900 ] - 創建源和匯任務通用的連接度量標準
[ KAFKA-5901 ] - 為源任務創建連接度量標準
[ KAFKA-5902 ] - 為信宿任務創建連接度量標準
[ KAFKA-5903 ] - 為工作人員創建連接度量標準
[ KAFKA-5904 ] - 為員工重新平衡創建連接度量標準
[ KAFKA-5913 ] - 將“hasOffset”和“hasTimestamp”方法添加到RecordMetadata中,以指示元數據是否可用
[ KAFKA-5921 ] - 將物化過載添加到WindowedKStream
[ KAFKA-5922 ] - 添加SessionWindowedKStream
[ KAFKA-5931 ] - 棄用KTable#to和KTable#through
[ KAFKA-5937 ] - 改進ProcessorStateManager異常處理
[ KAFKA-5949 ] - 用戶回調異常需要妥善處理
[ KAFKA-5990 ] - 為連接指標添加生成的文檔