# Руководство по системному администрированию
Термины и определения#
Термин/аббревиатура |
Определение |
|---|---|
gRPC |
Высокопроизводительный фреймворк, разработанный компанией Google для вызова удаленных процедур (RPC) |
JSON |
JavaScript Object Notation, текстовый формат обмена данными, основанный на JavaScript |
URL |
Uniform Resource Locator, унифицированный адрес ресурса |
YAML |
Yet Another Markup Language, язык сериализации данных, который соответствует ожиданиям пользователей в отношении данных |
Deployment |
Набор инструкций для запуска приложения в Kubernetes/DropApp или Red Hat OpenShift |
Нода |
Рабочая машина или узел в Kubernetes/DropApp или Red Hat OpenShift, которая может быть виртуальной или физической машиной, в зависимости от кластера. |
Pod |
Набор контейнеров внутри узла кластера Kubernetes/DropApp |
Secret Management (SecMan) |
Продукт Platform V Secret Management (SCM), реализующий безопасное хранилище секретной информации |
Введение#
Документ содержит сценарии администрирования, а также перечень событий программного компонента Kafka Gateway (далее — Шлюз Kafka) из состава программного продукта Platform V Synapse Enterprise Integration.
Сценарии администрирования#
Изменение количества Подов#
С использованием веб-интерфейса#
Шаг |
Действия |
|---|---|
Вход в веб-консоль |
1. Перейдите по ссылке (URL) веб-консоли нужного кластера Kubernetes/DropApp или Red Hat OpenShift. |
Переход в нужный проект |
1. Выберите пункт меню Home → Projects. |
Увеличение/уменьшение количества Подов |
1. В меню выберите пункт Workload → Deployments. |
Выход из веб-консоли |
1. Нажатием на имени пользователя раскройте меню пользователя. |
С использованием консоли#
Шаг |
Действия |
|---|---|
Логин в консоль |
1. В окне командной строки в приглашении введите команду: |
Переход в нужный проект |
Введите команду: |
Увеличение/уменьшение количества Подов |
В консоли выполните команду: |
Завершение сеанса работы |
В консоли выполните команду: |
Проверка работоспособности#
С использованием веб-интерфейса#
Шаг |
Действие |
|---|---|
Вход в веб-консоль |
1. Перейдите по ссылке (URL) веб-консоли нужного кластера Kubernetes/DropApp или Red Hat OpenShift. |
Переход в нужный проект |
1. Выберите пункт меню Home → Projects. |
Проверка работоспособности |
1. В меню выберите пункт Workload → Pods. |
Выход из веб-консоли |
1. Нажатием на имени пользователя раскройте меню пользователя. |
С использованием консоли#
Шаг |
Действие |
|---|---|
Логин в консоль |
1. В окне командной строки в приглашении введите команду: |
Переход в нужный проект |
Введите команду: |
Проверка работоспособности |
1. В консоли выполните команду: |
Завершение сеанса работы |
В консоли выполните команду: |
Настройка выделения ресурсов#
С использованием веб-интерфейса#
Шаг |
Действие |
|---|---|
Вход в веб-консоль |
1. Перейдите по ссылке (URL) веб-консоли нужного кластера Kubernetes/DropApp или Red Hat OpenShift. |
Переход в нужный проект |
1. Выберите пункт меню Home → Projects. |
Открытие Deployment |
1. В меню выберите пункт Workload → Deployments. |
Корректировка параметров |
1. В окне редактирования найдите параметры: |
Сохранение Deployment |
Нажмите кнопку Save |
Проверка конфигурации |
Нажмите кнопку Reload и проверьте, что изменения применились |
Выход из веб-консоли |
1. Нажатием на имени пользователя раскройте меню пользователя. |
С использованием консоли#
Шаг |
Действие |
|---|---|
Логин в консоль |
1. В окне командной строки в приглашении введите команду: |
Переход в нужный проект |
Введите команду: |
Загрузка Deployment |
В консоли выполните команду: |
Корректировка параметров |
1. Откройте файл, полученный на предыдущем шаге, в текстовом редакторе (например, Notepad++). |
Сохранение Deployment |
В консоли выполните команду: |
Завершение сеанса работы |
В консоли выполните команду: |
Настройка подключений#
Внимание
Новая конфигурация вступит в действие только после перезапуска Подов.
С использованием веб-интерфейса
Шаг |
Действие |
|---|---|
Вход в веб-консоль |
1. Перейдите по ссылке (URL) веб-консоли нужного кластера Kubernetes/DropApp или Red Hat OpenShift. |
Переход в нужный проект |
1. Выберите пункт меню Home → Projects. |
Открытие конфигурации |
1. В меню выберите пункт Workload → Config Maps. |
Редактирование конфигурации |
1. В окне редактирования найдите параметры bootstrap-servers, topic, topics: |
Сохранение конфигурации |
Нажмите кнопку Save |
Выход из веб-консоли |
1. Нажатием на имени пользователя раскройте меню пользователя. |
С использованием консоли
Шаг |
Действие |
|---|---|
Логин в консоль |
1. В окне командной строки в приглашении введите команду: |
Переход в нужный проект |
Введите команду: |
Загрузка Deployment |
В консоли выполните команду: |
Корректировка параметров |
1. Откройте файл, полученный на предыдущем шаге, в текстовом редакторе (например Notepad++). |
Сохранение Deployment |
В консоли выполните команду: |
Завершение сеанса работы |
В консоли выполните команду: |
Выгрузка системного журнала#
С использованием веб-интерфейса#
Шаг |
Действия |
|---|---|
Вход в веб-консоль |
1. Перейдите по ссылке (URL) веб-консоли нужного кластера Kubernetes/DropApp или Red Hat OpenShift. |
Переход в нужный проект |
1. Выберите пункт меню Home → Projects. |
Выгрузка журнала |
1. В меню выберите пункт Workload → Deployments. |
Выход из веб-консоли |
1. Нажатием на имени пользователя раскройте меню пользователя. |
С использованием консоли#
Шаг |
Действия |
|---|---|
Логин в консоль |
1. В окне командной строки в приглашении введите команду: |
Переход в нужный проект |
Введите команду: |
Выгрузка журнала |
В консоли выполните команду: |
Завершение сеанса работы |
В консоли выполните команду: |
Просмотр событий мониторинга платформы оркестрации#
С использованием веб-интерфейса#
Шаг |
Действие |
|---|---|
Выполнить вход в веб-консоль |
Перейти по ссылке (URL) веб-консоли нужного кластера, в окне ввода учетных данных ввести логин и пароль |
Перейти в проект |
Выбрать пункт меню Projects, выбрать из списка нужный проект |
Перейти в Pods |
Выполнить следующие действия: |
Посмотреть события |
В появившемся списке можно увидеть события мониторинга |
Выйти из веб-консоли |
Выполнить следующие действия: |
С использованием консоли#
Шаг |
Действия |
|---|---|
Логин в консоль |
1. В окне командной строки в приглашении введите команду: |
Просмотр событий мониторинга |
В консоли выполните команду: |
Завершение сеанса работы |
В консоли выполните команду: |
Контроль и перевыпуск сертификатов#
Рекомендуется использовать SecMan для выпуска, автоматического перевыпуска и хранения сертификатов, более подробно описано в разделе Как интегрировать Шлюз Kafka с SecMan и настроить TLS подключение к брокерам Kafka руководства по безопасности.
События системного журнала#
Журналирование ведется в используемом кластере (Kubernetes/DropApp или Red Hat OpenShift).
Для просмотра журнала с использованием веб-интерфейса перейдите на вкладку Logs нужного Пода (см. пункт Выгрузка системного журнала с использованием веб-интерфейса).
Для просмотра журнала с использованием консоли выполните команды выгрузки логов нужного Пода (см. пункт Выгрузка системного журнала с использованием консоли).
Старт приложения
15:29:37.329 [INFO ] [main] [c.sbt.synapse.kafka.KafkaApplication] [T:] - Starting KafkaApplication on grpc-kafka-adapter-scm-8f6797778-gqnfc with PID 1 (/home/jboss/app.jar started by ? in /home/jboss)
15:29:37.334 [DEBUG] [main] [c.sbt.synapse.kafka.KafkaApplication] [T:] - Running with Spring Boot v2.2.0.RELEASE, Spring v5.2.4.RELEASE
15:29:37.334 [INFO ] [main] [c.sbt.synapse.kafka.KafkaApplication] [T:] - The following profiles are active: production
Старт сервера GRPC
15:29:46.442 [INFO ] [main] [c.s.s.c.s.c.GrpcChannelComponentRegisteringPostProcessor] [T:] - Зарегестрирован клиентский канал Grpc. channelKey=default
15:29:47.414 [INFO ] [main] [org.reflections.Reflections] [T:] - Reflections took 518 ms to scan 9 urls, producing 16 keys and 73 values
15:29:47.635 [INFO ] [main] [c.s.s.c.s.c.GrpcAnnotationBeanPostProcessor] [T:] - Зарегестрирован GrpcService. channel=default, methodDescriptor=com.sbt.synapse.gateway.MessageAsyncChannel/processMessage
Запуск сервера HTTP
15:29:54.349 [INFO ] [main] [o.s.b.w.e.tomcat.TomcatWebServer] [T:] - Tomcat initialized with port(s): 8080 (http)
15:29:54.443 [INFO ] [main] [o.a.coyote.http11.Http11NioProtocol] [T:] - Initializing ProtocolHandler ["http-nio-8080"]
15:29:54.514 [INFO ] [main] [o.a.catalina.core.StandardService] [T:] - Starting service [Tomcat]
15:29:54.514 [INFO ] [main] [o.a.catalina.core.StandardEngine] [T:] - Starting Servlet engine: [Apache Tomcat/9.0.27]
15:29:54.935 [INFO ] [main] [o.a.c.c.C.[Tomcat].[localhost].[/]] [T:] - Initializing Spring embedded WebApplicationContext
15:29:54.935 [INFO ] [main] [o.s.web.context.ContextLoader] [T:] - Root WebApplicationContext: initialization completed in 17201 ms
Настройка трассировки
15:29:59.437 [INFO ] [main] [c.s.s.k.t.ProtoMessageTracingHeadersExtractor] [T:] - Конфигурация трейсинга: TracingConfiguration(tracingHeaders={x-synapse-rquid=ExtractionRule(type=FROM_BODY, value=//RqUID)}, generateXB3Headers=false, generate128bitTraceId=true)
Параметры конфигурации отправителя Kafka
2021-06-08 18:14:27.763 [INFO ] [[grpc-transport]-2] [o.a.k.c.producer.ProducerConfig] [T:] - ProducerConfig values:
acks = 1
batch.size = 16384
bootstrap.servers = [<host1>:9093, <host2>:9093, <host3>:9093]
buffer.memory = 33554432
client.dns.lookup = default
client.id =
compression.type = none
connections.max.idle.ms = 540000
delivery.timeout.ms = 120000
enable.idempotence = false
interceptor.classes = []
key.serializer = class org.apache.kafka.common.serialization.StringSerializer
linger.ms = 0
max.block.ms = 60000
max.in.flight.requests.per.connection = 5
max.request.size = 1048576
metadata.max.age.ms = 300000
metric.reporters = []
metrics.num.samples = 2
metrics.recording.level = INFO
metrics.sample.window.ms = 30000
partitioner.class = class org.apache.kafka.clients.producer.internals.DefaultPartitioner
receive.buffer.bytes = 32768
reconnect.backoff.max.ms = 1000
reconnect.backoff.ms = 50
request.timeout.ms = 30000
retries = 2147483647
retry.backoff.ms = 100
sasl.client.callback.handler.class = null
sasl.jaas.config = null
sasl.kerberos.kinit.cmd = /usr/bin/kinit
sasl.kerberos.min.time.before.relogin = 60000
sasl.kerberos.service.name = null
sasl.kerberos.ticket.renew.jitter = 0.05
sasl.kerberos.ticket.renew.window.factor = 0.8
sasl.login.callback.handler.class = null
sasl.login.class = null
sasl.login.refresh.buffer.seconds = 300
sasl.login.refresh.min.period.seconds = 60
sasl.login.refresh.window.factor = 0.8
sasl.login.refresh.window.jitter = 0.05
sasl.mechanism = GSSAPI
security.protocol = SSL
security.providers = null
send.buffer.bytes = 131072
ssl.cipher.suites = null
ssl.enabled.protocols = [TLSv1.2, TLSv1.1, TLSv1]
ssl.endpoint.identification.algorithm =
ssl.key.password = [hidden]
ssl.keymanager.algorithm = SunX509
ssl.keystore.location = C:\work\git\synapse-adapter-kafka\grpc-kafka-adapter\ssl\keystore.jks
ssl.keystore.password = [hidden]
ssl.keystore.type = JKS
ssl.protocol = TLSv1.2
ssl.provider = null
ssl.secure.random.implementation = null
ssl.trustmanager.algorithm = PKIX
ssl.truststore.location = C:\work\git\synapse-adapter-kafka\grpc-kafka-adapter\ssl\keystore.jks
ssl.truststore.password = [hidden]
ssl.truststore.type = JKS
transaction.timeout.ms = 60000
transactional.id = null
value.serializer = class org.apache.kafka.common.serialization.StringSerializer
2021-06-08 18:14:28.614 [INFO ] [[grpc-transport]-2] [c.s.s.kafka.service.KafkaService] [T:] - Сообщение отправлено в топик NT.SYN.ESB.CLIENTDEDUPREQUESTED RqUID: fd6aad18256945e4b894cd36b6ab3823
Запись сообщения в топик kafka
2021-06-08 18:14:28.614 [INFO ] [[grpc-transport]-2] [c.s.s.kafka.service.KafkaService] [T:] - Сообщение отправлено в топик NT.SYN.ESB.CLIENTDEDUPREQUESTED RqUID: fd6aad18256945e4b894cd36b6ab3823
Конфигурация потребителя (Consumer)
15:30:29.832 [INFO ] [main] [o.a.k.c.consumer.ConsumerConfig] [T:] - ConsumerConfig values:
allow.auto.create.topics = true
auto.commit.interval.ms = 5000
auto.offset.reset = latest
bootstrap.servers = [<host>:9092]
check.crcs = true
client.dns.lookup = default
client.id =
client.rack =
connections.max.idle.ms = 540000
default.api.timeout.ms = 60000
enable.auto.commit = false
exclude.internal.topics = true
fetch.max.bytes = 52428800
fetch.max.wait.ms = 500
fetch.min.bytes = 1
group.id = kafkaAdapter_group
group.instance.id = null
heartbeat.interval.ms = 3000
interceptor.classes = []
internal.leave.group.on.close = true
isolation.level = read_uncommitted
key.deserializer = class org.apache.kafka.common.serialization.StringDeserializer
max.partition.fetch.bytes = 1048576
max.poll.interval.ms = 300000
max.poll.records = 500
metadata.max.age.ms = 300000
metric.reporters = []
metrics.num.samples = 2
metrics.recording.level = INFO
metrics.sample.window.ms = 30000
partition.assignment.strategy = [class org.apache.kafka.clients.consumer.RangeAssignor]
receive.buffer.bytes = 65536
reconnect.backoff.max.ms = 1000
reconnect.backoff.ms = 50
request.timeout.ms = 30000
retry.backoff.ms = 100
sasl.client.callback.handler.class = null
sasl.jaas.config = null
sasl.kerberos.kinit.cmd = /usr/bin/kinit
sasl.kerberos.min.time.before.relogin = 60000
sasl.kerberos.service.name = null
sasl.kerberos.ticket.renew.jitter = 0.05
sasl.kerberos.ticket.renew.window.factor = 0.8
sasl.login.callback.handler.class = null
sasl.login.class = null
sasl.login.refresh.buffer.seconds = 300
sasl.login.refresh.min.period.seconds = 60
sasl.login.refresh.window.factor = 0.8
sasl.login.refresh.window.jitter = 0.05
sasl.mechanism = GSSAPI
security.protocol = PLAINTEXT
security.providers = null
send.buffer.bytes = 131072
session.timeout.ms = 10000
ssl.cipher.suites = null
ssl.enabled.protocols = [TLSv1.2, TLSv1.1, TLSv1]
ssl.endpoint.identification.algorithm = https
ssl.key.password = [hidden]
ssl.keymanager.algorithm = SunX509
ssl.keystore.location = null
ssl.keystore.password = [hidden]
ssl.keystore.type = JKS
ssl.protocol = TLS
ssl.provider = null
ssl.secure.random.implementation = null
ssl.trustmanager.algorithm = PKIX
ssl.truststore.location = null
ssl.truststore.password = [hidden]
ssl.truststore.type = JKS
value.deserializer = class org.apache.kafka.common.serialization.StringDeserializer
Подключение к топику Kafka
15:30:30.039 [INFO ] [main] [o.a.k.clients.consumer.KafkaConsumer] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Subscribed to topic(s): NT.COD.CLNT.CLIENTDEDUPLICATED
Инициализация разделов
15:30:30.524 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Adding newly assigned partitions: NT.COD.CLNT.CLIENTDEDUPLICATED-15, NT.COD.CLNT.CLIENTDEDUPLICATED-14, NT.COD.CLNT.CLIENTDEDUPLICATED-13, NT.COD.CLNT.CLIENTDEDUPLICATED-12, NT.COD.CLNT.CLIENTDEDUPLICATED-11, NT.COD.CLNT.CLIENTDEDUPLICATED-10, NT.COD.CLNT.CLIENTDEDUPLICATED-9, NT.COD.CLNT.CLIENTDEDUPLICATED-8, NT.COD.CLNT.CLIENTDEDUPLICATED-19, NT.COD.CLNT.CLIENTDEDUPLICATED-18, NT.COD.CLNT.CLIENTDEDUPLICATED-17, NT.COD.CLNT.CLIENTDEDUPLICATED-16, NT.COD.CLNT.CLIENTDEDUPLICATED-7, NT.COD.CLNT.CLIENTDEDUPLICATED-6, NT.COD.CLNT.CLIENTDEDUPLICATED-5, NT.COD.CLNT.CLIENTDEDUPLICATED-4, NT.COD.CLNT.CLIENTDEDUPLICATED-3, NT.COD.CLNT.CLIENTDEDUPLICATED-2, NT.COD.CLNT.CLIENTDEDUPLICATED-1, NT.COD.CLNT.CLIENTDEDUPLICATED-0
Завершение инициализации
15:30:56.036 [INFO ] [http-nio-8080-exec-2] [o.a.c.c.C.[Tomcat].[localhost].[/]] [T:] - Initializing Spring DispatcherServlet 'dispatcherServlet'
15:30:56.036 [INFO ] [http-nio-8080-exec-2] [o.s.web.servlet.DispatcherServlet] [T:] - Initializing Servlet 'dispatcherServlet'
15:30:56.049 [INFO ] [http-nio-8080-exec-2] [o.s.web.servlet.DispatcherServlet] [T:] - Completed initialization in 13 ms
Журнал полностью
15:29:37.329 [INFO ] [main] [c.sbt.synapse.kafka.KafkaApplication] [T:] - Starting KafkaApplication on grpc-kafka-adapter-scm-8f6797778-gqnfc with PID 1 (/home/jboss/app.jar started by ? in /home/jboss)
15:29:37.334 [DEBUG] [main] [c.sbt.synapse.kafka.KafkaApplication] [T:] - Running with Spring Boot v2.2.0.RELEASE, Spring v5.2.4.RELEASE
15:29:37.334 [INFO ] [main] [c.sbt.synapse.kafka.KafkaApplication] [T:] - The following profiles are active: production
15:29:46.442 [INFO ] [main] [c.s.s.c.s.c.GrpcChannelComponentRegisteringPostProcessor] [T:] - Зарегестрирован клиентский канал Grpc. channelKey=default
15:29:47.414 [INFO ] [main] [org.reflections.Reflections] [T:] - Reflections took 518 ms to scan 9 urls, producing 16 keys and 73 values
15:29:47.635 [INFO ] [main] [c.s.s.c.s.c.GrpcAnnotationBeanPostProcessor] [T:] - Зарегестрирован GrpcService. channel=default, methodDescriptor=com.sbt.synapse.gateway.MessageAsyncChannel/processMessage
15:29:49.624 [INFO ] [main] [o.s.c.s.PostProcessorRegistrationDelegate$BeanPostProcessorChecker] [T:] - Bean 'default' of type [com.sbt.synapse.core.service.client.GrpcChannelBuilder] is not eligible for getting processed by all BeanPostProcessors (for example: not eligible for auto-proxying)
15:29:50.661 [INFO ] [main] [o.s.c.s.PostProcessorRegistrationDelegate$BeanPostProcessorChecker] [T:] - Bean 'default' of type [io.grpc.internal.ManagedChannelOrphanWrapper] is not eligible for getting processed by all BeanPostProcessors (for example: not eligible for auto-proxying)
15:29:54.349 [INFO ] [main] [o.s.b.w.e.tomcat.TomcatWebServer] [T:] - Tomcat initialized with port(s): 8080 (http)
15:29:54.443 [INFO ] [main] [o.a.coyote.http11.Http11NioProtocol] [T:] - Initializing ProtocolHandler ["http-nio-8080"]
15:29:54.514 [INFO ] [main] [o.a.catalina.core.StandardService] [T:] - Starting service [Tomcat]
15:29:54.514 [INFO ] [main] [o.a.catalina.core.StandardEngine] [T:] - Starting Servlet engine: [Apache Tomcat/9.0.27]
15:29:54.935 [INFO ] [main] [o.a.c.c.C.[Tomcat].[localhost].[/]] [T:] - Initializing Spring embedded WebApplicationContext
15:29:54.935 [INFO ] [main] [o.s.web.context.ContextLoader] [T:] - Root WebApplicationContext: initialization completed in 17201 ms
15:29:59.437 [INFO ] [main] [c.s.s.k.t.ProtoMessageTracingHeadersExtractor] [T:] - Конфигурация трейсинга: TracingConfiguration(tracingHeaders={x-synapse-rquid=ExtractionRule(type=FROM_BODY, value=//RqUID)}, generateXB3Headers=false, generate128bitTraceId=true)
15:30:00.722 [INFO ] [main] [o.h.validator.internal.util.Version] [T:] - HV000001: Hibernate Validator 6.0.17.Final
15:30:03.626 [DEBUG] [main] [c.s.s.c.s.c.GrpcAnnotationBeanPostProcessor] [T:] - AsyncGrpcService beanName=default/com.sbt.synapse.gateway.MessageAsyncChannel/processMessage injected into class=DefaultListener
15:30:06.434 [INFO ] [main] [o.s.s.c.ThreadPoolTaskExecutor] [T:] - Initializing ExecutorService 'applicationTaskExecutor'
15:30:10.147 [INFO ] [main] [o.s.b.a.e.web.EndpointLinksResolver] [T:] - Exposing 14 endpoint(s) beneath base path '/actuator'
15:30:10.828 [INFO ] [main] [o.a.k.c.admin.AdminClientConfig] [T:] - AdminClientConfig values:
bootstrap.servers = [<host1>:9092]
client.dns.lookup = default
client.id =
connections.max.idle.ms = 300000
metadata.max.age.ms = 300000
metric.reporters = []
metrics.num.samples = 2
metrics.recording.level = INFO
metrics.sample.window.ms = 30000
receive.buffer.bytes = 65536
reconnect.backoff.max.ms = 1000
reconnect.backoff.ms = 50
request.timeout.ms = 120000
retries = 5
retry.backoff.ms = 100
sasl.client.callback.handler.class = null
sasl.jaas.config = null
sasl.kerberos.kinit.cmd = /usr/bin/kinit
sasl.kerberos.min.time.before.relogin = 60000
sasl.kerberos.service.name = null
sasl.kerberos.ticket.renew.jitter = 0.05
sasl.kerberos.ticket.renew.window.factor = 0.8
sasl.login.callback.handler.class = null
sasl.login.class = null
sasl.login.refresh.buffer.seconds = 300
sasl.login.refresh.min.period.seconds = 60
sasl.login.refresh.window.factor = 0.8
sasl.login.refresh.window.jitter = 0.05
sasl.mechanism = GSSAPI
security.protocol = PLAINTEXT
security.providers = null
send.buffer.bytes = 131072
ssl.cipher.suites = null
ssl.enabled.protocols = [TLSv1.2, TLSv1.1, TLSv1]
ssl.endpoint.identification.algorithm = https
ssl.key.password = [hidden]
ssl.keymanager.algorithm = SunX509
ssl.keystore.location = null
ssl.keystore.password = [hidden]
ssl.keystore.type = JKS
ssl.protocol = TLS
ssl.provider = null
ssl.secure.random.implementation = null
ssl.trustmanager.algorithm = PKIX
ssl.truststore.location = null
ssl.truststore.password = [hidden]
ssl.truststore.type = JKS
15:30:11.157 [WARN ] [main] [o.a.k.c.admin.AdminClientConfig] [T:] - The configuration 'ssl.keystore.password' was supplied but isn't a known config.
15:30:11.157 [WARN ] [main] [o.a.k.c.admin.AdminClientConfig] [T:] - The configuration 'ssl.key.password' was supplied but isn't a known config.
15:30:11.157 [WARN ] [main] [o.a.k.c.admin.AdminClientConfig] [T:] - The configuration 'ssl.truststore.password' was supplied but isn't a known config.
15:30:11.159 [INFO ] [main] [o.a.kafka.common.utils.AppInfoParser] [T:] - Kafka version: 2.4.0
15:30:11.160 [INFO ] [main] [o.a.kafka.common.utils.AppInfoParser] [T:] - Kafka commitId: 77a89fcf8d7fa018
15:30:11.160 [INFO ] [main] [o.a.kafka.common.utils.AppInfoParser] [T:] - Kafka startTimeMs: 1623155411157
15:30:11.415 [WARN ] [kafka-admin-client-thread | adminclient-1] [o.apache.kafka.clients.NetworkClient] [T:] - [AdminClient clientId=adminclient-1] Connection to node -1 (<host>/<ip>:9092) could not be established. Broker may not be available.
15:30:29.832 [INFO ] [main] [o.a.k.c.consumer.ConsumerConfig] [T:] - ConsumerConfig values:
allow.auto.create.topics = true
auto.commit.interval.ms = 5000
auto.offset.reset = latest
bootstrap.servers = [<host>:9092]
check.crcs = true
client.dns.lookup = default
client.id =
client.rack =
connections.max.idle.ms = 540000
default.api.timeout.ms = 60000
enable.auto.commit = false
exclude.internal.topics = true
fetch.max.bytes = 52428800
fetch.max.wait.ms = 500
fetch.min.bytes = 1
group.id = kafkaAdapter_group
group.instance.id = null
heartbeat.interval.ms = 3000
interceptor.classes = []
internal.leave.group.on.close = true
isolation.level = read_uncommitted
key.deserializer = class org.apache.kafka.common.serialization.StringDeserializer
max.partition.fetch.bytes = 1048576
max.poll.interval.ms = 300000
max.poll.records = 500
metadata.max.age.ms = 300000
metric.reporters = []
metrics.num.samples = 2
metrics.recording.level = INFO
metrics.sample.window.ms = 30000
partition.assignment.strategy = [class org.apache.kafka.clients.consumer.RangeAssignor]
receive.buffer.bytes = 65536
reconnect.backoff.max.ms = 1000
reconnect.backoff.ms = 50
request.timeout.ms = 30000
retry.backoff.ms = 100
sasl.client.callback.handler.class = null
sasl.jaas.config = null
sasl.kerberos.kinit.cmd = /usr/bin/kinit
sasl.kerberos.min.time.before.relogin = 60000
sasl.kerberos.service.name = null
sasl.kerberos.ticket.renew.jitter = 0.05
sasl.kerberos.ticket.renew.window.factor = 0.8
sasl.login.callback.handler.class = null
sasl.login.class = null
sasl.login.refresh.buffer.seconds = 300
sasl.login.refresh.min.period.seconds = 60
sasl.login.refresh.window.factor = 0.8
sasl.login.refresh.window.jitter = 0.05
sasl.mechanism = GSSAPI
security.protocol = PLAINTEXT
security.providers = null
send.buffer.bytes = 131072
session.timeout.ms = 10000
ssl.cipher.suites = null
ssl.enabled.protocols = [TLSv1.2, TLSv1.1, TLSv1]
ssl.endpoint.identification.algorithm = https
ssl.key.password = [hidden]
ssl.keymanager.algorithm = SunX509
ssl.keystore.location = null
ssl.keystore.password = [hidden]
ssl.keystore.type = JKS
ssl.protocol = TLS
ssl.provider = null
ssl.secure.random.implementation = null
ssl.trustmanager.algorithm = PKIX
ssl.truststore.location = null
ssl.truststore.password = [hidden]
ssl.truststore.type = JKS
value.deserializer = class org.apache.kafka.common.serialization.StringDeserializer
15:30:30.035 [INFO ] [main] [o.a.kafka.common.utils.AppInfoParser] [T:] - Kafka version: 2.4.0
15:30:30.036 [INFO ] [main] [o.a.kafka.common.utils.AppInfoParser] [T:] - Kafka commitId: 77a89fcf8d7fa018
15:30:30.036 [INFO ] [main] [o.a.kafka.common.utils.AppInfoParser] [T:] - Kafka startTimeMs: 1623155430035
15:30:30.039 [INFO ] [main] [o.a.k.clients.consumer.KafkaConsumer] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Subscribed to topic(s): NT.COD.CLNT.CLIENTDEDUPLICATED
15:30:30.115 [INFO ] [main] [o.s.s.c.ThreadPoolTaskScheduler] [T:] - Initializing ExecutorService
15:30:30.225 [INFO ] [main] [o.a.coyote.http11.Http11NioProtocol] [T:] - Starting ProtocolHandler ["http-nio-8080"]
15:30:30.226 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [org.apache.kafka.clients.Metadata] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Cluster ID: WWD9osZARai6JKcsWKuLDw
15:30:30.227 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.AbstractCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Discovered group coordinator <host>:9092 (id: 2147483647 rack: null)
15:30:30.317 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.AbstractCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] (Re-)joining group
15:30:30.420 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.AbstractCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] (Re-)joining group
15:30:30.428 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Finished assignment for group at generation 58: {consumer-kafkaAdapter_group-1-d4ae6ab4-5711-4b67-b901-7841c4645050=org.apache.kafka.clients.consumer.ConsumerPartitionAssignor$Assignment@393e0908}
15:30:30.434 [INFO ] [main] [o.s.b.w.e.tomcat.TomcatWebServer] [T:] - Tomcat started on port(s): 8080 (http) with context path ''
15:30:30.434 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.AbstractCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Successfully joined group with generation 58
15:30:30.522 [INFO ] [main] [c.sbt.synapse.kafka.KafkaApplication] [T:] - Started KafkaApplication in 61.383 seconds (JVM running for 67.794)
15:30:30.524 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Adding newly assigned partitions: NT.COD.CLNT.CLIENTDEDUPLICATED-15, NT.COD.CLNT.CLIENTDEDUPLICATED-14, NT.COD.CLNT.CLIENTDEDUPLICATED-13, NT.COD.CLNT.CLIENTDEDUPLICATED-12, NT.COD.CLNT.CLIENTDEDUPLICATED-11, NT.COD.CLNT.CLIENTDEDUPLICATED-10, NT.COD.CLNT.CLIENTDEDUPLICATED-9, NT.COD.CLNT.CLIENTDEDUPLICATED-8, NT.COD.CLNT.CLIENTDEDUPLICATED-19, NT.COD.CLNT.CLIENTDEDUPLICATED-18, NT.COD.CLNT.CLIENTDEDUPLICATED-17, NT.COD.CLNT.CLIENTDEDUPLICATED-16, NT.COD.CLNT.CLIENTDEDUPLICATED-7, NT.COD.CLNT.CLIENTDEDUPLICATED-6, NT.COD.CLNT.CLIENTDEDUPLICATED-5, NT.COD.CLNT.CLIENTDEDUPLICATED-4, NT.COD.CLNT.CLIENTDEDUPLICATED-3, NT.COD.CLNT.CLIENTDEDUPLICATED-2, NT.COD.CLNT.CLIENTDEDUPLICATED-1, NT.COD.CLNT.CLIENTDEDUPLICATED-0
15:30:30.534 [INFO ] [main] [c.s.s.c.s.grpc.GRpcServerRunner] [T:] - Запуск gRPC сервера ...
15:30:30.534 [INFO ] [main] [c.s.s.c.s.grpc.GRpcServerRunner] [T:] - Настройки gRPC сервера: GRpcServerProperties(serverPort=5454, threadPool=ThreadPoolConfiguration(concurrentConsumers=1, maxConcurrentConsumers=5, threadKeepAliveSeconds=60))
15:30:30.623 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-15 to the committed offset FetchPosition{offset=2555, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.629 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-14 to the committed offset FetchPosition{offset=2570, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.629 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-13 to the committed offset FetchPosition{offset=2685, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.629 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-12 to the committed offset FetchPosition{offset=2569, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-11 to the committed offset FetchPosition{offset=2578, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-10 to the committed offset FetchPosition{offset=2631, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-9 to the committed offset FetchPosition{offset=2627, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-8 to the committed offset FetchPosition{offset=2632, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-19 to the committed offset FetchPosition{offset=2663, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-18 to the committed offset FetchPosition{offset=2639, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-17 to the committed offset FetchPosition{offset=2619, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-16 to the committed offset FetchPosition{offset=2677, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-7 to the committed offset FetchPosition{offset=2645, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-6 to the committed offset FetchPosition{offset=2607, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-5 to the committed offset FetchPosition{offset=2712, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-4 to the committed offset FetchPosition{offset=2540, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-3 to the committed offset FetchPosition{offset=2580, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-2 to the committed offset FetchPosition{offset=2613, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-1 to the committed offset FetchPosition{offset=2746, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-0 to the committed offset FetchPosition{offset=2630, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}
15:30:30.714 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.s.k.l.KafkaMessageListenerContainer] [T:] - kafkaAdapter_group: partitions assigned: [NT.COD.CLNT.CLIENTDEDUPLICATED-15, NT.COD.CLNT.CLIENTDEDUPLICATED-14, NT.COD.CLNT.CLIENTDEDUPLICATED-13, NT.COD.CLNT.CLIENTDEDUPLICATED-12, NT.COD.CLNT.CLIENTDEDUPLICATED-11, NT.COD.CLNT.CLIENTDEDUPLICATED-10, NT.COD.CLNT.CLIENTDEDUPLICATED-9, NT.COD.CLNT.CLIENTDEDUPLICATED-8, NT.COD.CLNT.CLIENTDEDUPLICATED-19, NT.COD.CLNT.CLIENTDEDUPLICATED-18, NT.COD.CLNT.CLIENTDEDUPLICATED-17, NT.COD.CLNT.CLIENTDEDUPLICATED-16, NT.COD.CLNT.CLIENTDEDUPLICATED-7, NT.COD.CLNT.CLIENTDEDUPLICATED-6, NT.COD.CLNT.CLIENTDEDUPLICATED-5, NT.COD.CLNT.CLIENTDEDUPLICATED-4, NT.COD.CLNT.CLIENTDEDUPLICATED-3, NT.COD.CLNT.CLIENTDEDUPLICATED-2, NT.COD.CLNT.CLIENTDEDUPLICATED-1, NT.COD.CLNT.CLIENTDEDUPLICATED-0]
15:30:30.930 [INFO ] [main] [c.s.s.c.s.grpc.GRpcServerRunner] [T:] - Зарегистрирован обработчик сервиса synapse: Сервис: com.sbt.synapse.gateway.MessageAsyncChannel/processMessage. Имплементация: com.sbt.synapse.kafka.service.GrpcService@3abada5a
15:30:31.025 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2555 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-15, resetting offset
15:30:31.028 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2570 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-14, resetting offset
15:30:31.028 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2685 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-13, resetting offset
15:30:31.028 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2569 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-12, resetting offset
15:30:31.028 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2578 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-11, resetting offset
15:30:31.028 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2631 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-10, resetting offset
15:30:31.028 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2627 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-9, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2632 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-8, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2663 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-19, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2639 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-18, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2619 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-17, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2677 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-16, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2645 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-7, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2607 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-6, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2712 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-5, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2540 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-4, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2580 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-3, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2613 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-2, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2746 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-1, resetting offset
15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2630 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-0, resetting offset
15:30:31.126 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-15 to offset 2764.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-14 to offset 2772.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-13 to offset 2869.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-12 to offset 2733.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-11 to offset 2775.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-10 to offset 2810.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-9 to offset 2796.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-8 to offset 2811.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-19 to offset 2821.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-18 to offset 2831.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-17 to offset 2796.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-16 to offset 2831.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-7 to offset 2823.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-6 to offset 2792.
15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-5 to offset 2882.
15:30:31.128 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-4 to offset 2709.
15:30:31.128 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-3 to offset 2742.
15:30:31.128 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-2 to offset 2791.
15:30:31.128 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-1 to offset 2908.
15:30:31.128 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-0 to offset 2807.
15:30:31.716 [INFO ] [main] [c.s.s.c.s.grpc.GRpcServerRunner] [T:] - gRPC сервер запущен на порту 5454.
15:30:56.036 [INFO ] [http-nio-8080-exec-2] [o.a.c.c.C.[Tomcat].[localhost].[/]] [T:] - Initializing Spring DispatcherServlet 'dispatcherServlet'
15:30:56.036 [INFO ] [http-nio-8080-exec-2] [o.s.web.servlet.DispatcherServlet] [T:] - Initializing Servlet 'dispatcherServlet'
15:30:56.049 [INFO ] [http-nio-8080-exec-2] [o.s.web.servlet.DispatcherServlet] [T:] - Completed initialization in 13 ms
Примеры сообщений об ошибках
Не удалось отправить сообщение в GRPC сервис:
2022-08-11 12:18:30.465 [ERROR] [kafkaListener0-0-C-1] [c.s.s.k.s.l.ListenerDefaultExecutor] [T:] - Ошибка при отправке сообщения в сервис: RqUID: java.lang.RuntimeException: Ошибка при вызове по GRPC localhost com.sbt.synapse.core.service.exception.SynapseException: Код ошибки: 701. Не получен ответ на gRPC вызов. ErrorMessage: UNAVAILABLE: io exception
Не удалось отправить сообщение в REST сервис:
2022-08-11 12:36:20.825 [ERROR] [kafkaListener0-0-C-1] [c.s.s.k.s.l.ListenerDefaultExecutor] [T:] - Ошибка при отправке сообщения в сервис: RqUID: java.lang.RuntimeException: Ошибка при вызове по REST http://empty-service:80/ org.springframework.web.client.ResourceAccessException: I/O error on POST request for "http://empty-service:80/": empty-service: nodename nor servname provided, or not known; nested exception is java.net.UnknownHostException: empty-service: nodename nor servname provided, or not known
Не удалось получить destination из сообщения:
2022-08-11 12:42:55.899 [ERROR] [http-nio-8081-exec-1] [c.s.s.k.routing.DestinationResolver] [T:] - Ошибка парсинга сообщения и получения destination:
События прикладного журнала#
Прикладной журнал фиксируется в файле /opt/synapse/logs/messages.log в формате json.
В прикладном журнале фиксируются события:
получения сообщения
отправки сообщения
возникновения ошибки
Каждая запись о событии в журнале содержит:
Имя поля |
Требование к заполнению |
Обязательность |
|---|---|---|
|
Имя проекта в Kubernetes/DropApp или Red Hat OpenShift. Заполняется автоматически |
1 |
|
Имя пода в Kubernetes/DropApp или Red Hat OpenShift, записавшего событие. Заполняется автоматически |
1 |
|
Время фиксации события в поде. Заполняется автоматически |
1 |
|
Тело передаваемого сообщения |
1 |
|
Информация о событии |
0 |
rqUID |
Уникальный идентификатор запроса. Основной идентификатор для поиска записей в журнале. |
1 |
serviceReceiver |
Имя вызываемого сервиса (получателя) |
0 |
operationName |
Название операции (корневого тега сообщения) |
0 |
status |
Статус операции |
0 |
Для отображения событий прикладного журнала может быть использован продукт Platform V Monitor (OPM), интеграция с которым производится через компонент Журналирование (LOGA).
События мониторинга#
Для просмотра событий мониторинга через веб-интерфейс Kubernetes/DropApp или Red Hat OpenShift, необходимо проделать действия из пункта Сценарии администрирования: просмотр событий мониторинга платформы оркестрации.
Также KFGT выставляет HTTP-endpoint (actuator/prometheus), на котором публикует метрики мониторинга в формате Prometheus (MONA):
Метрика |
Описание |
|---|---|
http_server_requests_seconds_count |
Кол-во сообщений полученных по Rest |
sended_messages_via_rest_grpc_total |
Кол-во сообщений отправленных по grpc/rest |
kafka_topic_received_messages_total |
Кол-во сообщений полученных из топика |
kafka_topic_ratelimited_messages_total |
Кол-во сообщений пропущенных по правила RateLimiter |
kafka_topic_sended_messages_total |
Кол-во сообщений отправленных в топик |
spring_kafka_listener_seconds |
Время исполнения задачи чтения из топика |
spring_kafka_template_seconds |
Время исполнения задачи отправки сообщения по Rest |
rest_to_kafka_seconds |
Время исполнения задачи записи в топик |
Примеры событий мониторинга#
Загрузка образа#
Pulling image "registry.****.****.ru/****/******-kafka-gw/rhel7-java-****-grpc-kafka-adapter-*******:0.1.0.130"
Сообщение об успешной загрузке образа#
Successfully pulled image "registry.*****.*****.ru/******/*********-kafka-gw/rhel7-java-****-grpc-kafka-adapter-********:0.1.0.130" in 5.051913509s
Создание контейнера#
Created container grpc-kafka-adapter-scm
Запуск контейнера#
Started container grpc-kafka-adapter-scm
Ошибка проверки жизнеспособности приложения#
Liveness probe failed: HTTP probe failed with statuscode: 500
Liveness probe failed: Get "http://29.65.17.25:15020/app-health/grpc-kafka-adapter-scm/livez": dial tcp 29.65.17.25:15020: connect: connection refused
Ошибка проверки готовности приложения к работе#
Readiness probe failed: HTTP probe failed with statuscode: 500
Readiness probe failed: Get "http://29.65.17.25:15020/app-health/grpc-kafka-adapter-scm/readyz": dial tcp 29.65.17.25:15020: connect: connection refused
Часто встречающиеся проблемы и пути их решения#
Проблема |
Причина |
Решение |
|---|---|---|
Не стартует Pod приложения |
Недостаточно ресурсов |
Увеличьте лимиты/реквесты для приложения |
Не стартует Pod приложения |
Нет доступной ноды для запуска |
Зарегистрируйте обращение в поддержку инфраструктуры |
Не стартует Pod приложения |
Ошибка в конфигурации |
Выгрузите журнал, проведите анализ, скорректируйте конфигурацию |
Частый перезапуск контейнера приложения |
Медленная загрузка приложения |
Увеличьте задержку и/или интервал опроса Liveness-пробы |
Частый перезапуск контейнера приложения |
Недостаточно ресурсов |
Увеличьте лимиты/реквесты для приложения |
Ошибка при вызове по gRPC |
Нет доступных Подов сервиса, которому направлен вызов |
Проверьте состояние сервиса — получателя вызова |
Ошибка при вызове по gRPC |
Ошибки в конфигурации сервисного прокси |
Выгрузите журнал сервисного прокси, проанализируйте, устраните ошибки |
Ошибка при вызове по Kafka |
Отсутствует топик, к которому требуется подключиться |
Создайте топик в Kafka |
Ошибка при вызове по Kafka |
Ошибки в конфигурации сервисного прокси |
Выгрузите журнал сервисного прокси, проанализируйте, устраните ошибки |
Ошибка при вызове по Kafka |
Параметры подключения к Kafka некорректны |
Сопоставьте параметры configMap с параметрами Apache Kafka, к которому требуется подключиться, и устраните ошибки |
org.apache.kafka.common.KafkaException: Cannot execute transactional method because we are in an error state |
Недостаточно прав для IdempotentWrite |
Установить |