<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/">
	<channel>
		<title><![CDATA[Monitoring Serwerów - Forum o monitoringu infrastruktury IT - Kafka]]></title>
		<link>https://monitoringserwerow.pl/</link>
		<description><![CDATA[Monitoring Serwerów - Forum o monitoringu infrastruktury IT - https://monitoringserwerow.pl]]></description>
		<pubDate>Wed, 06 May 2026 12:31:26 +0000</pubDate>
		<generator>MyBB</generator>
		<item>
			<title><![CDATA[Kafka – obliczanie retention.bytes]]></title>
			<link>https://monitoringserwerow.pl/showthread.php?tid=127</link>
			<pubDate>Fri, 15 Oct 2021 11:08:10 +0000</pubDate>
			<dc:creator><![CDATA[<a href="https://monitoringserwerow.pl/member.php?action=profile&uid=59">quasimodo</a>]]></dc:creator>
			<guid isPermaLink="false">https://monitoringserwerow.pl/showthread.php?tid=127</guid>
			<description><![CDATA[Mam problem z obliczeniem wartości retention.bytes dla Kafki.]]></description>
			<content:encoded><![CDATA[Mam problem z obliczeniem wartości retention.bytes dla Kafki.]]></content:encoded>
		</item>
		<item>
			<title><![CDATA[rozmiar dokumentów w Kafka]]></title>
			<link>https://monitoringserwerow.pl/showthread.php?tid=109</link>
			<pubDate>Thu, 03 Sep 2020 10:26:43 +0000</pubDate>
			<dc:creator><![CDATA[<a href="https://monitoringserwerow.pl/member.php?action=profile&uid=57">joachim_szlosarek</a>]]></dc:creator>
			<guid isPermaLink="false">https://monitoringserwerow.pl/showthread.php?tid=109</guid>
			<description><![CDATA[Hej, <br />
nie jestem pewny czy to dobry dział, czy jednak powinno to wylądować w logstashu, ale trudno, mam następujący problem:<br />
<br />
Kafka nie przyjmuje dokumentów ponieważ twierdzi, że dokumenty są za duże.<br />
<br />
Zwiększanie limitów nic nie daje, bo dotarłem do poziomu 10MB i dalej niektórych zdarzeń logstash nie jest w stanie wysłać do kafki.<br />
<br />
Po czasie skutkuje to zapełnieniem kolejki w logstashu, co w konsekwencji prowadzi do zawieszenia całego pipeline...<br />
<br />
<br />
Logi z logstasha:<br />
<br />
<div class="codeblock"><div class="title">Code:</div><div class="body" dir="ltr"><code>[2020-09-03T00:53:38,603][WARN ][logstash.outputs.kafka &nbsp;&nbsp;] KafkaProducer.send() failed: org.apache.kafka.common.er<br />
rors.RecordTooLargeException: The message is 1223210 bytes when serialized which is larger than the maximum request<br />
 size you have configured with the max.request.size configuration. {:exception=&gt;java.util.concurrent.ExecutionExcep<br />
tion: org.apache.kafka.common.errors.RecordTooLargeException: The message is 1223210 bytes when serialized which is<br />
 larger than the maximum request size you have configured with the max.request.size configuration.}<br />
[2020-09-03T00:53:38,644][INFO ][logstash.outputs.kafka &nbsp;&nbsp;] Sending batch to Kafka failed. Will retry after a delay<br />
. {:batch_size=&gt;1, :failures=&gt;1, :sleep=&gt;0.1}<br />
[2020-09-03T00:53:38,769][WARN ][logstash.outputs.kafka &nbsp;&nbsp;] KafkaProducer.send() failed: org.apache.kafka.common.er<br />
rors.RecordTooLargeException: The message is 1223210 bytes when serialized which is larger than the maximum request<br />
 size you have configured with the max.request.size configuration. {:exception=&gt;java.util.concurrent.ExecutionExcep<br />
tion: org.apache.kafka.common.errors.RecordTooLargeException: The message is 1223210 bytes when serialized which is<br />
 larger than the maximum request size you have configured with the max.request.size configuration.}<br />
[2020-09-03T00:53:38,770][INFO ][logstash.outputs.kafka &nbsp;&nbsp;] Sending batch to Kafka failed. Will retry after a delay<br />
. {:batch_size=&gt;1, :failures=&gt;1, :sleep=&gt;0.1}<br />
[2020-09-03T00:53:38,878][INFO ][logstash.outputs.kafka &nbsp;&nbsp;] Exhausted user-configured retry count when sending to K<br />
afka. Dropping these events. {:max_retries=&gt;1, :drop_count=&gt;1}<br />
[2020-09-03T02:15:12,763][WARN ][logstash.outputs.kafka &nbsp;&nbsp;] KafkaProducer.send() failed: org.apache.kafka.common.er<br />
rors.RecordTooLargeException: The message is 1216262 bytes when serialized which is larger than the maximum request<br />
 size you have configured with the max.request.size configuration. {:exception=&gt;java.util.concurrent.ExecutionExcep<br />
tion: org.apache.kafka.common.errors.RecordTooLargeException: The message is 1216262 bytes when serialized which is<br />
 larger than the maximum request size you have configured with the max.request.size configuration.}<br />
[2020-09-03T02:15:12,764][INFO ][logstash.outputs.kafka &nbsp;&nbsp;] Sending batch to Kafka failed. Will retry after a delay<br />
. {:batch_size=&gt;1, :failures=&gt;1, :sleep=&gt;0.1}<br />
[2020-09-03T02:15:12,871][WARN ][logstash.outputs.kafka &nbsp;&nbsp;] KafkaProducer.send() failed: org.apache.kafka.common.er<br />
rors.RecordTooLargeException: The message is 1216262 bytes when serialized which is larger than the maximum request<br />
 size you have configured with the max.request.size configuration. {:exception=&gt;java.util.concurrent.ExecutionExcep<br />
tion: org.apache.kafka.common.errors.RecordTooLargeException: The message is 1216262 bytes when serialized which is<br />
 larger than the maximum request size you have configured with the max.request.size configuration.}<br />
[2020-09-03T02:15:12,871][INFO ][logstash.outputs.kafka &nbsp;&nbsp;] Sending batch to Kafka failed. Will retry after a delay<br />
. {:batch_size=&gt;1, :failures=&gt;1, :sleep=&gt;0.1}</code></div></div><br />
<br />
Jak najlepiej rozwiązać powyższy problem?]]></description>
			<content:encoded><![CDATA[Hej, <br />
nie jestem pewny czy to dobry dział, czy jednak powinno to wylądować w logstashu, ale trudno, mam następujący problem:<br />
<br />
Kafka nie przyjmuje dokumentów ponieważ twierdzi, że dokumenty są za duże.<br />
<br />
Zwiększanie limitów nic nie daje, bo dotarłem do poziomu 10MB i dalej niektórych zdarzeń logstash nie jest w stanie wysłać do kafki.<br />
<br />
Po czasie skutkuje to zapełnieniem kolejki w logstashu, co w konsekwencji prowadzi do zawieszenia całego pipeline...<br />
<br />
<br />
Logi z logstasha:<br />
<br />
<div class="codeblock"><div class="title">Code:</div><div class="body" dir="ltr"><code>[2020-09-03T00:53:38,603][WARN ][logstash.outputs.kafka &nbsp;&nbsp;] KafkaProducer.send() failed: org.apache.kafka.common.er<br />
rors.RecordTooLargeException: The message is 1223210 bytes when serialized which is larger than the maximum request<br />
 size you have configured with the max.request.size configuration. {:exception=&gt;java.util.concurrent.ExecutionExcep<br />
tion: org.apache.kafka.common.errors.RecordTooLargeException: The message is 1223210 bytes when serialized which is<br />
 larger than the maximum request size you have configured with the max.request.size configuration.}<br />
[2020-09-03T00:53:38,644][INFO ][logstash.outputs.kafka &nbsp;&nbsp;] Sending batch to Kafka failed. Will retry after a delay<br />
. {:batch_size=&gt;1, :failures=&gt;1, :sleep=&gt;0.1}<br />
[2020-09-03T00:53:38,769][WARN ][logstash.outputs.kafka &nbsp;&nbsp;] KafkaProducer.send() failed: org.apache.kafka.common.er<br />
rors.RecordTooLargeException: The message is 1223210 bytes when serialized which is larger than the maximum request<br />
 size you have configured with the max.request.size configuration. {:exception=&gt;java.util.concurrent.ExecutionExcep<br />
tion: org.apache.kafka.common.errors.RecordTooLargeException: The message is 1223210 bytes when serialized which is<br />
 larger than the maximum request size you have configured with the max.request.size configuration.}<br />
[2020-09-03T00:53:38,770][INFO ][logstash.outputs.kafka &nbsp;&nbsp;] Sending batch to Kafka failed. Will retry after a delay<br />
. {:batch_size=&gt;1, :failures=&gt;1, :sleep=&gt;0.1}<br />
[2020-09-03T00:53:38,878][INFO ][logstash.outputs.kafka &nbsp;&nbsp;] Exhausted user-configured retry count when sending to K<br />
afka. Dropping these events. {:max_retries=&gt;1, :drop_count=&gt;1}<br />
[2020-09-03T02:15:12,763][WARN ][logstash.outputs.kafka &nbsp;&nbsp;] KafkaProducer.send() failed: org.apache.kafka.common.er<br />
rors.RecordTooLargeException: The message is 1216262 bytes when serialized which is larger than the maximum request<br />
 size you have configured with the max.request.size configuration. {:exception=&gt;java.util.concurrent.ExecutionExcep<br />
tion: org.apache.kafka.common.errors.RecordTooLargeException: The message is 1216262 bytes when serialized which is<br />
 larger than the maximum request size you have configured with the max.request.size configuration.}<br />
[2020-09-03T02:15:12,764][INFO ][logstash.outputs.kafka &nbsp;&nbsp;] Sending batch to Kafka failed. Will retry after a delay<br />
. {:batch_size=&gt;1, :failures=&gt;1, :sleep=&gt;0.1}<br />
[2020-09-03T02:15:12,871][WARN ][logstash.outputs.kafka &nbsp;&nbsp;] KafkaProducer.send() failed: org.apache.kafka.common.er<br />
rors.RecordTooLargeException: The message is 1216262 bytes when serialized which is larger than the maximum request<br />
 size you have configured with the max.request.size configuration. {:exception=&gt;java.util.concurrent.ExecutionExcep<br />
tion: org.apache.kafka.common.errors.RecordTooLargeException: The message is 1216262 bytes when serialized which is<br />
 larger than the maximum request size you have configured with the max.request.size configuration.}<br />
[2020-09-03T02:15:12,871][INFO ][logstash.outputs.kafka &nbsp;&nbsp;] Sending batch to Kafka failed. Will retry after a delay<br />
. {:batch_size=&gt;1, :failures=&gt;1, :sleep=&gt;0.1}</code></div></div><br />
<br />
Jak najlepiej rozwiązać powyższy problem?]]></content:encoded>
		</item>
		<item>
			<title><![CDATA[Kafka retencja danych]]></title>
			<link>https://monitoringserwerow.pl/showthread.php?tid=100</link>
			<pubDate>Fri, 08 May 2020 11:03:47 +0000</pubDate>
			<dc:creator><![CDATA[<a href="https://monitoringserwerow.pl/member.php?action=profile&uid=53">JarosławS</a>]]></dc:creator>
			<guid isPermaLink="false">https://monitoringserwerow.pl/showthread.php?tid=100</guid>
			<description><![CDATA[Cześć,<br />
<br />
Mam problem z ustawieniem prawidłowej retencji w Kafka. Mam 1 topic do którego pisze 1 Logstash danymi z urządzeń sieciowych,konfiguracja topicu jest następująca:<br />
<br />
Configs for topic 'asa' are retention.ms=43200000,cleanup.policy=delete,retention.bytes=214748364800<br />
<br />
Problem polega na tym, że Kafka nie uwzględnia przy usuwaniu danych kryterium retention.bytes, co często doprowadza do zapełnienia wolumenu w przypadku nagłego wzrostu przesyłanych danych i zatrzymania procesu Kafka.<br />
<br />
<br />
Może ktoś ma pomysł jak problem rozwiązać?<br />
<br />
Jarek]]></description>
			<content:encoded><![CDATA[Cześć,<br />
<br />
Mam problem z ustawieniem prawidłowej retencji w Kafka. Mam 1 topic do którego pisze 1 Logstash danymi z urządzeń sieciowych,konfiguracja topicu jest następująca:<br />
<br />
Configs for topic 'asa' are retention.ms=43200000,cleanup.policy=delete,retention.bytes=214748364800<br />
<br />
Problem polega na tym, że Kafka nie uwzględnia przy usuwaniu danych kryterium retention.bytes, co często doprowadza do zapełnienia wolumenu w przypadku nagłego wzrostu przesyłanych danych i zatrzymania procesu Kafka.<br />
<br />
<br />
Może ktoś ma pomysł jak problem rozwiązać?<br />
<br />
Jarek]]></content:encoded>
		</item>
	</channel>
</rss>