Руководство по системному администрированию#

Термины и определения#

Термин/аббревиатура

Определение

gRPC

Высокопроизводительный фреймворк, разработанный компанией Google для вызова удаленных процедур (RPC)

JSON

JavaScript Object Notation, текстовый формат обмена данными, основанный на JavaScript

URL

Uniform Resource Locator, унифицированный адрес ресурса

YAML

Yet Another Markup Language, язык сериализации данных, который соответствует ожиданиям пользователей в отношении данных

Deployment

Набор инструкций для запуска приложения в Kubernetes/DropApp или Red Hat OpenShift

Нода

Рабочая машина или узел в Kubernetes/DropApp или Red Hat OpenShift, которая может быть виртуальной или физической машиной, в зависимости от кластера.

Pod

Набор контейнеров внутри узла кластера Kubernetes/DropApp

Secret Management (SecMan)

Продукт Platform V Secret Management (SCM), реализующий безопасное хранилище секретной информации

Введение#

Документ содержит сценарии администрирования, а также перечень событий программного компонента Kafka Gateway (далее — Шлюз Kafka) из состава программного продукта Platform V Synapse Enterprise Integration.

Сценарии администрирования#

Изменение количества Pods#

С использованием веб-интерфейса#

Шаг

Действия

Вход в веб-консоль

1. Перейдите по ссылке (URL) веб-консоли нужного кластера Kubernetes/DropApp или Red Hat OpenShift.
2. В окне ввода учетных данных введите логин и пароль.

Переход в нужный проект

1. Выберите пункт меню HomeProjects.
2. Выберите из списка нужный проект.

Увеличение/уменьшение количества Pods

1. В меню выберите пункт WorkloadDeployments.
2. На странице найдите нужный Deployment (при необходимости воспользуйтесь поиском по имени).
3. Перейдите по ссылке в наименовании на вкладку Detail.
4. Стрелками вверх (Increase the pod count) или вниз (Decrease the pod count) соответственно увеличьте или уменьшите количество Pods шлюза до требуемого.

Выход из веб-консоли

1. Нажатием на имени пользователя раскройте меню пользователя.
2. Выберите пункт Log out.
3. Закройте окно браузера.

С использованием консоли#

Шаг

Действия

Логин в консоль

1. В окне командной строки в приглашении введите команду: kubectl login --server=<URL кластера>.
2. В ответ на запрос введите имя пользователя и пароль.

Переход в нужный проект

Введите команду: kubectl project <имя проекта>

Увеличение/уменьшение количества Pods

В консоли выполните команду: kubectl scale --replicas=<N> deployment/<имя Deployment>, где N — требуемое количество запущенных Pods шлюза

Завершение сеанса работы

В консоли выполните команду: kubectl logout

Проверка работоспособности#

С использованием веб-интерфейса#

Шаг

Действие

Вход в веб-консоль

1. Перейдите по ссылке (URL) веб-консоли нужного кластера Kubernetes/DropApp или Red Hat OpenShift.
2. В окне ввода учетных данных введите логин и пароль.

Переход в нужный проект

1. Выберите пункт меню HomeProjects.
2. Выберите из списка нужный проект.

Проверка работоспособности

1. В меню выберите пункт WorkloadPods.
2. На странице найдите нужный Pod шлюза.
3. Перейдите по ссылке в имени на вкладку Detail.
4. Перейдите на вкладку Terminal.
5. В терминале Pod выполните команду: curl localhost:<portnum>/actuator/health, где <portnum> — номер порта, указанный в параметре server:port конфигурации шлюза. В выданной командой информации должна быть строка: "ping":{"status":"UP"}.

Выход из веб-консоли

1. Нажатием на имени пользователя раскройте меню пользователя.
2. Выберите пункт Log out.
3. Закройте окно браузера.

С использованием консоли#

Шаг

Действие

Логин в консоль

1. В окне командной строки в приглашении введите команду: kubectl login --server=<URL кластера>.
2. В ответ на запрос введите имя пользователя и пароль.

Переход в нужный проект

Введите команду: kubectl project <имя проекта>

Проверка работоспособности

1. В консоли выполните команду: kubectl port-forward pod/<имя Pod> <portnum>:<portnum>.
2. Запустите еще одно окно консоли и в нем выполните команду: curl localhost:<portnum>/actuator/health, где <portnum> — номер порта, указанный в параметре server/port конфигурации шлюза.
В выданной командой информации должна быть строка: "ping":{"status":"UP"}.
3. Завершите перенаправление портов нажатием Ctrl+C.

Завершение сеанса работы

В консоли выполните команду: kubectl logout

Настройка выделения ресурсов#

С использованием веб-интерфейса#

Шаг

Действие

Вход в веб-консоль

1. Перейдите по ссылке (URL) веб-консоли нужного кластера Kubernetes/DropApp или Red Hat OpenShift.
2. В окне ввода учетных данных введите логин и пароль.

Переход в нужный проект

1. Выберите пункт меню HomeProjects.
2. Выберите из списка нужный проект.

Открытие Deployment

1. В меню выберите пункт WorkloadDeployments.
2. На странице найдите нужный Deployment (при необходимости воспользуйтесь поиском по имени).
3. Перейдите по ссылке в наименовании на вкладку Detail.
4. Перейдите на вкладку YAML.

Корректировка параметров

1. В окне редактирования найдите параметры: spec.template.spec.containers[0].resources.limits.cpu, spec.template.spec.containers[0].resources.limits.memory, spec.template.spec.containers[0].resources.requests.cpu, spec.template.spec.containers[0].resources.requests.memory.
2. Установите нужные значения.

Сохранение Deployment

Нажмите кнопку Save

Проверка конфигурации

Нажмите кнопку Reload и проверьте, что изменения применились

Выход из веб-консоли

1. Нажатием на имени пользователя раскройте меню пользователя.
2. Выберите пункт Log out.
3. Закройте окно браузера.

С использованием консоли#

Шаг

Действие

Логин в консоль

1. В окне командной строки в приглашении введите команду: kubectl login --server=<URL кластера>.
2. В ответ на запрос введите имя пользователя и пароль.

Переход в нужный проект

Введите команду: kubectl project <имя проекта>

Загрузка Deployment

В консоли выполните команду: kubectl get -o yaml deployment/<имя Deployment> > <путь к файлу>.yaml

Корректировка параметров

1. Откройте файл, полученный на предыдущем шаге, в текстовом редакторе (например, Notepad++).
2. Найдите в нем параметры: spec.template.spec.containers[0].resources.limits.cpu, spec.template.spec.containers[0].resources.limits.memory, spec.template.spec.containers[0].resources.requests.cpu, spec.template.spec.containers[0].resources.requests.memory.
3. Укажите нужные значения.

Сохранение Deployment

В консоли выполните команду: kubectl apply -f <путь к файлу>.yaml

Завершение сеанса работы

В консоли выполните команду: kubectl logout

Настройка подключений#

Внимание
Новая конфигурация вступит в действие только после перезапуска Pods.

С использованием веб-интерфейса

Шаг

Действие

Вход в веб-консоль

1. Перейдите по ссылке (URL) веб-консоли нужного кластера Kubernetes/DropApp или Red Hat OpenShift.
2. В окне ввода учетных данных введите логин и пароль.

Переход в нужный проект

1. Выберите пункт меню HomeProjects.
2. Выберите из списка нужный проект.

Открытие конфигурации

1. В меню выберите пункт WorkloadConfig Maps.
2. На странице найдите нужный артефакт Configmap (при необходимости воспользуйтесь поиском по имени).
3. Перейдите по ссылке в наименовании на вкладку Detail.
4. Перейдите на вкладку YAML.

Редактирование конфигурации

1. В окне редактирования найдите параметры bootstrap-servers, topic, topics:
spring:   kafka:     producer:       bootstrap-servers: <Server:Port брокеров кластера кафки, в которые требуется помещать сообщения>       topic: <Имя topic(s), в который требуется помещать сообщения>     consumer:       bootstrap-servers: <Server:Port брокеров кластера кафки, из которых требуется читать сообщения>       topics: <Имена topic(s), из которых требуется читать сообщения>
2. Внесите необходимые изменения для нужных точек подключения из списка.

Сохранение конфигурации

Нажмите кнопку Save

Выход из веб-консоли

1. Нажатием на имени пользователя раскройте меню пользователя.
2. Выберите пункт Log out.
3. Закройте окно браузера.

С использованием консоли

Шаг

Действие

Логин в консоль

1. В окне командной строки в приглашении введите команду: kubectl login --server=<URL кластера>.
2. В ответ на запрос введите имя пользователя и пароль.

Переход в нужный проект

Введите команду: kubectl project <имя проекта>

Загрузка Deployment

В консоли выполните команду: kubectl get -o yaml configmaps/<имя config map> > <путь к файлу>.yaml

Корректировка параметров

1. Откройте файл, полученный на предыдущем шаге, в текстовом редакторе (например Notepad++).
2. Найдите параметры bootstrap-servers, topic, topics: spring:   kafka:     producer:       bootstrap-servers: <Server:Port брокеров кластера кафки, в которые требуется помещать сообщения>       topic: <Имя topic(s), в который требуется помещать сообщения>     consumer:       bootstrap-servers: <Server:Port брокеров кластера кафки, из которых требуется читать сообщения>       topics: <Имена topic(s), из которых требуется читать сообщения>
3. Внесите необходимые изменения для нужных точек подключения из списка.

Сохранение Deployment

В консоли выполните команду: kubectl apply -f \<путь к файлу\>.yaml

Завершение сеанса работы

В консоли выполните команду: kubectl logout

Выгрузка системного журнала#

С использованием веб-интерфейса#

Шаг

Действия

Вход в веб-консоль

1. Перейдите по ссылке (URL) веб-консоли нужного кластера Kubernetes/DropApp или Red Hat OpenShift.
2. В окне ввода учетных данных введите логин и пароль.

Переход в нужный проект

1. Выберите пункт меню HomeProjects.
2. Выберите из списка нужный проект.

Выгрузка журнала

1. В меню выберите пункт WorkloadDeployments.
2. На странице найдите нужный Deployment (при необходимости воспользуйтесь поиском по имени).
3. Перейдите по ссылке в наименовании на вкладку Detail.
4. Перейдите на вкладку Pods.
5. Найдите в списке нужный Pod.
6. Перейдите по ссылке в его наименовании на вкладку Detail.
7. Перейдите на вкладку Logs.
8. Нажатием по ссылке Download и скачайте журнал на свой компьютер.

Выход из веб-консоли

1. Нажатием на имени пользователя раскройте меню пользователя.
2. Выберите пункт Log out.
3. Закройте окно браузера.

С использованием консоли#

Шаг

Действия

Логин в консоль

1. В окне командной строки в приглашении введите команду: kubectl login --server=<URL кластера>.
2. В ответ на запрос введите имя пользователя и пароль.

Переход в нужный проект

Введите команду: kubectl project <имя проекта>

Выгрузка журнала

В консоли выполните команду: kubectl logs -c <имя контейнера> <имя Pod> > <имя файла>.txt, где <имя контейнера> может быть названием контейнера приложения шлюза или контейнера Сайдкара

Завершение сеанса работы

В консоли выполните команду: kubectl logout

Просмотр событий мониторинга платформы оркестрации#

С использованием веб-интерфейса#

Шаг

Действие

Выполнить вход в веб-консоль

Перейти по ссылке (URL) веб-консоли нужного кластера, в окне ввода учетных данных ввести логин и пароль

Перейти в проект

Выбрать пункт меню Projects, выбрать из списка нужный проект

Перейти в Pods

Выполнить следующие действия:
– В меню выбрать пункт Workload/Pods;
– На странице найти нужный Pod (при необходимости воспользоваться поиском по имени);
– Пройти по ссылке в наименовании на вкладку Events.

Посмотреть события

В появившемся списке можно увидеть события мониторинга

Выйти из веб-консоли

Выполнить следующие действия:
– Кликом по имени пользователя раскрыть меню пользователя;
– Выбрать пункт Log out;
– Закрыть окно браузера.

С использованием консоли#

Шаг

Действия

Логин в консоль

1. В окне командной строки в приглашении введите команду: kubectl login --server=<URL кластера>.
2. В ответ на запрос введите имя пользователя и пароль.

Просмотр событий мониторинга

В консоли выполните команду: get events --sort-by='.metadata.creationTimestamp' -n <имя проекта>, чтобы вывести события в проекте, отсортированные по времени

Завершение сеанса работы

В консоли выполните команду: kubectl logout

Контроль и перевыпуск сертификатов#

Рекомендуется использовать SecMan для выпуска, автоматического перевыпуска и хранения сертификатов, более подробно описано в разделе Как интегрировать Шлюз Kafka с SecMan и настроить TLS подключение к брокерам Kafka руководства по безопасности.

События системного журнала#

Журналирование ведется в используемом кластере (Kubernetes/DropApp или Red Hat OpenShift).

Логирование событий уровней trace и debug не рекомендуется использовать в промышленных инсталляциях.

Для просмотра журнала с использованием веб-интерфейса перейдите на вкладку Logs нужного Pod (см. пункт Выгрузка системного журнала с использованием веб-интерфейса).

Для просмотра журнала с использованием консоли выполните команды выгрузки логов нужного Pod (см. пункт Выгрузка системного журнала с использованием консоли).

Старт приложения

15:29:37.329 [INFO ] [main] [c.b.synapse.kafka.KafkaApplication] [T:] - Starting KafkaApplication on grpc-kafka-adapter-scm-8f6797778-gqnfc with PID 1 (/home/jboss/app.jar started by ? in /home/jboss)

15:29:37.334 [DEBUG] [main] [c.b.synapse.kafka.KafkaApplication] [T:] - Running with Spring Boot v2.2.0.RELEASE, Spring v5.2.4.RELEASE

15:29:37.334 [INFO ] [main] [c.b.synapse.kafka.KafkaApplication] [T:] - The following profiles are active: production

Старт сервера GRPC

15:29:46.442 [INFO ] [main] [c.s.s.c.s.c.GrpcChannelComponentRegisteringPostProcessor] [T:] - Зарегестрирован клиентский канал Grpc. channelKey=default

15:29:47.414 [INFO ] [main] [org.reflections.Reflections] [T:] - Reflections took 518 ms to scan 9 urls, producing 16 keys and 73 values

15:29:47.635 [INFO ] [main] [c.s.s.c.s.c.GrpcAnnotationBeanPostProcessor] [T:] - Зарегестрирован GrpcService. channel=default, methodDescriptor=com.b.synapse.gateway.MessageAsyncChannel/processMessage

Запуск сервера HTTP

15:29:54.349 [INFO ] [main] [o.s.b.w.e.tomcat.TomcatWebServer] [T:] - Tomcat initialized with port(s): 8080 (http)

15:29:54.443 [INFO ] [main] [o.a.coyote.http11.Http11NioProtocol] [T:] - Initializing ProtocolHandler ["http-nio-8080"]

15:29:54.514 [INFO ] [main] [o.a.catalina.core.StandardService] [T:] - Starting service [Tomcat]

15:29:54.514 [INFO ] [main] [o.a.catalina.core.StandardEngine] [T:] - Starting Servlet engine: [Apache Tomcat/9.0.27]

15:29:54.935 [INFO ] [main] [o.a.c.c.C.[Tomcat].[localhost].[/]] [T:] - Initializing Spring embedded WebApplicationContext

15:29:54.935 [INFO ] [main] [o.s.web.context.ContextLoader] [T:] - Root WebApplicationContext: initialization completed in 17201 ms

Настройка трассировки

15:29:59.437 [INFO ] [main] [c.s.s.k.t.ProtoMessageTracingHeadersExtractor] [T:] - Конфигурация трейсинга: TracingConfiguration(tracingHeaders={x-synapse-rquid=ExtractionRule(type=FROM_BODY, value=//RqUID)}, generateXB3Headers=false, generate128bitTraceId=true)

Параметры конфигурации отправителя Kafka

2021-06-08 18:14:27.763 [INFO ] [[grpc-transport]-2] [o.a.k.c.producer.ProducerConfig] [T:] - ProducerConfig values:
                acks = 1
                batch.size = 16384
                bootstrap.servers = [<host1>:9093, <host2>:9093, <host3>:9093]
                buffer.memory = 33554432
                client.dns.lookup = default
                client.id =
                compression.type = none
                connections.max.idle.ms = 540000
                delivery.timeout.ms = 120000
                enable.idempotence = false
                interceptor.classes = []
                key.serializer = class org.apache.kafka.common.serialization.StringSerializer
                linger.ms = 0
                max.block.ms = 60000
                max.in.flight.requests.per.connection = 5
                max.request.size = 1048576
                metadata.max.age.ms = 300000
                metric.reporters = []
                metrics.num.samples = 2
                metrics.recording.level = INFO
                metrics.sample.window.ms = 30000
                partitioner.class = class org.apache.kafka.clients.producer.internals.DefaultPartitioner
                receive.buffer.bytes = 32768
                reconnect.backoff.max.ms = 1000
                reconnect.backoff.ms = 50
                request.timeout.ms = 30000
                retries = 2147483647
                retry.backoff.ms = 100
                sasl.client.callback.handler.class = null
                sasl.jaas.config = null
                sasl.kerberos.kinit.cmd = /usr/bin/kinit
                sasl.kerberos.min.time.before.relogin = 60000
                sasl.kerberos.service.name = null
                sasl.kerberos.ticket.renew.jitter = 0.05
                sasl.kerberos.ticket.renew.window.factor = 0.8
                sasl.login.callback.handler.class = null
                sasl.login.class = null
                sasl.login.refresh.buffer.seconds = 300
                sasl.login.refresh.min.period.seconds = 60
                sasl.login.refresh.window.factor = 0.8
                sasl.login.refresh.window.jitter = 0.05
                sasl.mechanism = GSSAPI
                security.protocol = SSL
                security.providers = null
                send.buffer.bytes = 131072
                ssl.cipher.suites = null
                ssl.enabled.protocols = [TLSv1.2, TLSv1.1, TLSv1]
                ssl.endpoint.identification.algorithm =
                ssl.key.password = [hidden]
                ssl.keymanager.algorithm = SunX509
                ssl.keystore.location = C:\work\git\synapse-adapter-kafka\grpc-kafka-adapter\ssl\keystore.jks
                ssl.keystore.password = [hidden]
                ssl.keystore.type = JKS
                ssl.protocol = TLSv1.2
                ssl.provider = null
                ssl.secure.random.implementation = null
                ssl.trustmanager.algorithm = PKIX
                ssl.truststore.location = C:\work\git\synapse-adapter-kafka\grpc-kafka-adapter\ssl\keystore.jks
                ssl.truststore.password = [hidden]
                ssl.truststore.type = JKS
                transaction.timeout.ms = 60000
                transactional.id = null
                value.serializer = class org.apache.kafka.common.serialization.StringSerializer


2021-06-08 18:14:28.614 [INFO ] [[grpc-transport]-2] [c.s.s.kafka.service.KafkaService] [T:] - Сообщение отправлено в topic(s) NT.SYN.ESB.CLIENTDEDUPREQUESTED RqUID: fd6aad18256945e4b894cd36b6ab3823

Запись сообщения в topic(s) kafka

2021-06-08 18:14:28.614 [INFO ] [[grpc-transport]-2] [c.s.s.kafka.service.KafkaService] [T:] - Сообщение отправлено в topic(s) NT.SYN.ESB.CLIENTDEDUPREQUESTED RqUID: fd6aad18256945e4b894cd36b6ab3823

Конфигурация потребителя (Consumer)

15:30:29.832 [INFO ] [main] [o.a.k.c.consumer.ConsumerConfig] [T:] - ConsumerConfig values:

                allow.auto.create.topics = true

                auto.commit.interval.ms = 5000

                auto.offset.reset = latest

                bootstrap.servers = [<host>:9092]

                check.crcs = true

                client.dns.lookup = default

                client.id =

                client.rack =

                connections.max.idle.ms = 540000

                default.api.timeout.ms = 60000

                enable.auto.commit = false

                exclude.internal.topics = true

                fetch.max.bytes = 52428800

                fetch.max.wait.ms = 500

                fetch.min.bytes = 1

                group.id = kafkaAdapter_group

                group.instance.id = null

                heartbeat.interval.ms = 3000

                interceptor.classes = []

                internal.leave.group.on.close = true

                isolation.level = read_uncommitted

                key.deserializer = class org.apache.kafka.common.serialization.StringDeserializer

                max.partition.fetch.bytes = 1048576

                max.poll.interval.ms = 300000

                max.poll.records = 500

                metadata.max.age.ms = 300000

                metric.reporters = []

                metrics.num.samples = 2

                metrics.recording.level = INFO

                metrics.sample.window.ms = 30000

                partition.assignment.strategy = [class org.apache.kafka.clients.consumer.RangeAssignor]

                receive.buffer.bytes = 65536

                reconnect.backoff.max.ms = 1000

                reconnect.backoff.ms = 50

                request.timeout.ms = 30000

                retry.backoff.ms = 100

                sasl.client.callback.handler.class = null

                sasl.jaas.config = null

                sasl.kerberos.kinit.cmd = /usr/bin/kinit

                sasl.kerberos.min.time.before.relogin = 60000

                sasl.kerberos.service.name = null

                sasl.kerberos.ticket.renew.jitter = 0.05

                sasl.kerberos.ticket.renew.window.factor = 0.8

                sasl.login.callback.handler.class = null

                sasl.login.class = null

                sasl.login.refresh.buffer.seconds = 300

                sasl.login.refresh.min.period.seconds = 60

                sasl.login.refresh.window.factor = 0.8

                sasl.login.refresh.window.jitter = 0.05

                sasl.mechanism = GSSAPI

                security.protocol = PLAINTEXT

                security.providers = null

                send.buffer.bytes = 131072

                session.timeout.ms = 10000

                ssl.cipher.suites = null

                ssl.enabled.protocols = [TLSv1.2, TLSv1.1, TLSv1]

                ssl.endpoint.identification.algorithm = https

                ssl.key.password = [hidden]

                ssl.keymanager.algorithm = SunX509

                ssl.keystore.location = null

                ssl.keystore.password = [hidden]

                ssl.keystore.type = JKS

                ssl.protocol = TLS

                ssl.provider = null

                ssl.secure.random.implementation = null

                ssl.trustmanager.algorithm = PKIX

                ssl.truststore.location = null

                ssl.truststore.password = [hidden]

                ssl.truststore.type = JKS

                value.deserializer = class org.apache.kafka.common.serialization.StringDeserializer

Подключение к topic(s) Kafka

15:30:30.039 [INFO ] [main] [o.a.k.clients.consumer.KafkaConsumer] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Subscribed to topic(s): NT.COD.CLNT.CLIENTDEDUPLICATED

Инициализация разделов

15:30:30.524 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Adding newly assigned partitions: NT.COD.CLNT.CLIENTDEDUPLICATED-15, NT.COD.CLNT.CLIENTDEDUPLICATED-14, NT.COD.CLNT.CLIENTDEDUPLICATED-13, NT.COD.CLNT.CLIENTDEDUPLICATED-12, NT.COD.CLNT.CLIENTDEDUPLICATED-11, NT.COD.CLNT.CLIENTDEDUPLICATED-10, NT.COD.CLNT.CLIENTDEDUPLICATED-9, NT.COD.CLNT.CLIENTDEDUPLICATED-8, NT.COD.CLNT.CLIENTDEDUPLICATED-19, NT.COD.CLNT.CLIENTDEDUPLICATED-18, NT.COD.CLNT.CLIENTDEDUPLICATED-17, NT.COD.CLNT.CLIENTDEDUPLICATED-16, NT.COD.CLNT.CLIENTDEDUPLICATED-7, NT.COD.CLNT.CLIENTDEDUPLICATED-6, NT.COD.CLNT.CLIENTDEDUPLICATED-5, NT.COD.CLNT.CLIENTDEDUPLICATED-4, NT.COD.CLNT.CLIENTDEDUPLICATED-3, NT.COD.CLNT.CLIENTDEDUPLICATED-2, NT.COD.CLNT.CLIENTDEDUPLICATED-1, NT.COD.CLNT.CLIENTDEDUPLICATED-0

Завершение инициализации

15:30:56.036 [INFO ] [http-nio-8080-exec-2] [o.a.c.c.C.[Tomcat].[localhost].[/]] [T:] - Initializing Spring DispatcherServlet 'dispatcherServlet'

15:30:56.036 [INFO ] [http-nio-8080-exec-2] [o.s.web.servlet.DispatcherServlet] [T:] - Initializing Servlet 'dispatcherServlet'

15:30:56.049 [INFO ] [http-nio-8080-exec-2] [o.s.web.servlet.DispatcherServlet] [T:] - Completed initialization in 13 ms

Журнал полностью

15:29:37.329 [INFO ] [main] [c.b.synapse.kafka.KafkaApplication] [T:] - Starting KafkaApplication on grpc-kafka-adapter-scm-8f6797778-gqnfc with PID 1 (/home/jboss/app.jar started by ? in /home/jboss)

15:29:37.334 [DEBUG] [main] [c.b.synapse.kafka.KafkaApplication] [T:] - Running with Spring Boot v2.2.0.RELEASE, Spring v5.2.4.RELEASE

15:29:37.334 [INFO ] [main] [c.b.synapse.kafka.KafkaApplication] [T:] - The following profiles are active: production

15:29:46.442 [INFO ] [main] [c.s.s.c.s.c.GrpcChannelComponentRegisteringPostProcessor] [T:] - Зарегестрирован клиентский канал Grpc. channelKey=default

15:29:47.414 [INFO ] [main] [org.reflections.Reflections] [T:] - Reflections took 518 ms to scan 9 urls, producing 16 keys and 73 values

15:29:47.635 [INFO ] [main] [c.s.s.c.s.c.GrpcAnnotationBeanPostProcessor] [T:] - Зарегестрирован GrpcService. channel=default, methodDescriptor=c.b.synapse.gateway.MessageAsyncChannel/processMessage

15:29:49.624 [INFO ] [main] [o.s.c.s.PostProcessorRegistrationDelegate$BeanPostProcessorChecker] [T:] - Bean 'default' of type [c.b.synapse.core.service.client.GrpcChannelBuilder] is not eligible for getting processed by all BeanPostProcessors (for example: not eligible for auto-proxying)

15:29:50.661 [INFO ] [main] [o.s.c.s.PostProcessorRegistrationDelegate$BeanPostProcessorChecker] [T:] - Bean 'default' of type [io.grpc.internal.ManagedChannelOrphanWrapper] is not eligible for getting processed by all BeanPostProcessors (for example: not eligible for auto-proxying)

15:29:54.349 [INFO ] [main] [o.s.b.w.e.tomcat.TomcatWebServer] [T:] - Tomcat initialized with port(s): 8080 (http)

15:29:54.443 [INFO ] [main] [o.a.coyote.http11.Http11NioProtocol] [T:] - Initializing ProtocolHandler ["http-nio-8080"]

15:29:54.514 [INFO ] [main] [o.a.catalina.core.StandardService] [T:] - Starting service [Tomcat]

15:29:54.514 [INFO ] [main] [o.a.catalina.core.StandardEngine] [T:] - Starting Servlet engine: [Apache Tomcat/9.0.27]

15:29:54.935 [INFO ] [main] [o.a.c.c.C.[Tomcat].[localhost].[/]] [T:] - Initializing Spring embedded WebApplicationContext

15:29:54.935 [INFO ] [main] [o.s.web.context.ContextLoader] [T:] - Root WebApplicationContext: initialization completed in 17201 ms

15:29:59.437 [INFO ] [main] [c.s.s.k.t.ProtoMessageTracingHeadersExtractor] [T:] - Конфигурация трейсинга: TracingConfiguration(tracingHeaders={x-synapse-rquid=ExtractionRule(type=FROM_BODY, value=//RqUID)}, generateXB3Headers=false, generate128bitTraceId=true)

15:30:00.722 [INFO ] [main] [o.h.validator.internal.util.Version] [T:] - HV000001: Hibernate Validator 6.0.17.Final

15:30:03.626 [DEBUG] [main] [c.s.s.c.s.c.GrpcAnnotationBeanPostProcessor] [T:] - AsyncGrpcService beanName=default/c.b.***.synapse.gateway.MessageAsyncChannel/processMessage injected into class=DefaultListener

15:30:06.434 [INFO ] [main] [o.s.s.c.ThreadPoolTaskExecutor] [T:] - Initializing ExecutorService 'applicationTaskExecutor'

15:30:10.147 [INFO ] [main] [o.s.b.a.e.web.EndpointLinksResolver] [T:] - Exposing 14 endpoint(s) beneath base path '/actuator'

15:30:10.828 [INFO ] [main] [o.a.k.c.admin.AdminClientConfig] [T:] - AdminClientConfig values:

                bootstrap.servers = [<host1>:9092]

                client.dns.lookup = default

                client.id =

                connections.max.idle.ms = 300000

                metadata.max.age.ms = 300000

                metric.reporters = []

                metrics.num.samples = 2

                metrics.recording.level = INFO

                metrics.sample.window.ms = 30000

                receive.buffer.bytes = 65536

                reconnect.backoff.max.ms = 1000

                reconnect.backoff.ms = 50

                request.timeout.ms = 120000

                retries = 5

                retry.backoff.ms = 100

                sasl.client.callback.handler.class = null

                sasl.jaas.config = null

                sasl.kerberos.kinit.cmd = /usr/bin/kinit

                sasl.kerberos.min.time.before.relogin = 60000

                sasl.kerberos.service.name = null

                sasl.kerberos.ticket.renew.jitter = 0.05

                sasl.kerberos.ticket.renew.window.factor = 0.8

                sasl.login.callback.handler.class = null

                sasl.login.class = null

                sasl.login.refresh.buffer.seconds = 300

                sasl.login.refresh.min.period.seconds = 60

                sasl.login.refresh.window.factor = 0.8

                sasl.login.refresh.window.jitter = 0.05

                sasl.mechanism = GSSAPI

                security.protocol = PLAINTEXT

                security.providers = null

                send.buffer.bytes = 131072

                ssl.cipher.suites = null

                ssl.enabled.protocols = [TLSv1.2, TLSv1.1, TLSv1]

                ssl.endpoint.identification.algorithm = https

                ssl.key.password = [hidden]

                ssl.keymanager.algorithm = SunX509

                ssl.keystore.location = null

                ssl.keystore.password = [hidden]

                ssl.keystore.type = JKS

                ssl.protocol = TLS

                ssl.provider = null

                ssl.secure.random.implementation = null

                ssl.trustmanager.algorithm = PKIX

                ssl.truststore.location = null

                ssl.truststore.password = [hidden]

                ssl.truststore.type = JKS



15:30:11.157 [WARN ] [main] [o.a.k.c.admin.AdminClientConfig] [T:] - The configuration 'ssl.keystore.password' was supplied but isn't a known config.

15:30:11.157 [WARN ] [main] [o.a.k.c.admin.AdminClientConfig] [T:] - The configuration 'ssl.key.password' was supplied but isn't a known config.

15:30:11.157 [WARN ] [main] [o.a.k.c.admin.AdminClientConfig] [T:] - The configuration 'ssl.truststore.password' was supplied but isn't a known config.

15:30:11.159 [INFO ] [main] [o.a.kafka.common.utils.AppInfoParser] [T:] - Kafka version: 2.4.0

15:30:11.160 [INFO ] [main] [o.a.kafka.common.utils.AppInfoParser] [T:] - Kafka commitId: 77a89fcf8d7fa018

15:30:11.160 [INFO ] [main] [o.a.kafka.common.utils.AppInfoParser] [T:] - Kafka startTimeMs: 1623155411157

15:30:11.415 [WARN ] [kafka-admin-client-thread | adminclient-1] [o.apache.kafka.clients.NetworkClient] [T:] - [AdminClient clientId=adminclient-1] Connection to node -1 (<host>/<ip>:9092) could not be established. Broker may not be available.

15:30:29.832 [INFO ] [main] [o.a.k.c.consumer.ConsumerConfig] [T:] - ConsumerConfig values:

                allow.auto.create.topics = true

                auto.commit.interval.ms = 5000

                auto.offset.reset = latest

                bootstrap.servers = [<host>:9092]

                check.crcs = true

                client.dns.lookup = default

                client.id =

                client.rack =

                connections.max.idle.ms = 540000

                default.api.timeout.ms = 60000

                enable.auto.commit = false

                exclude.internal.topics = true

                fetch.max.bytes = 52428800

                fetch.max.wait.ms = 500

                fetch.min.bytes = 1

                group.id = kafkaAdapter_group

                group.instance.id = null

                heartbeat.interval.ms = 3000

                interceptor.classes = []

                internal.leave.group.on.close = true

                isolation.level = read_uncommitted

                key.deserializer = class org.apache.kafka.common.serialization.StringDeserializer

                max.partition.fetch.bytes = 1048576

                max.poll.interval.ms = 300000

                max.poll.records = 500

                metadata.max.age.ms = 300000

                metric.reporters = []

                metrics.num.samples = 2

                metrics.recording.level = INFO

                metrics.sample.window.ms = 30000

                partition.assignment.strategy = [class org.apache.kafka.clients.consumer.RangeAssignor]

                receive.buffer.bytes = 65536

                reconnect.backoff.max.ms = 1000

                reconnect.backoff.ms = 50

                request.timeout.ms = 30000

                retry.backoff.ms = 100

                sasl.client.callback.handler.class = null

                sasl.jaas.config = null

                sasl.kerberos.kinit.cmd = /usr/bin/kinit

                sasl.kerberos.min.time.before.relogin = 60000

                sasl.kerberos.service.name = null

                sasl.kerberos.ticket.renew.jitter = 0.05

                sasl.kerberos.ticket.renew.window.factor = 0.8

                sasl.login.callback.handler.class = null

                sasl.login.class = null

                sasl.login.refresh.buffer.seconds = 300

                sasl.login.refresh.min.period.seconds = 60

                sasl.login.refresh.window.factor = 0.8

                sasl.login.refresh.window.jitter = 0.05

                sasl.mechanism = GSSAPI

                security.protocol = PLAINTEXT

                security.providers = null

                send.buffer.bytes = 131072

                session.timeout.ms = 10000

                ssl.cipher.suites = null

                ssl.enabled.protocols = [TLSv1.2, TLSv1.1, TLSv1]

                ssl.endpoint.identification.algorithm = https

                ssl.key.password = [hidden]

                ssl.keymanager.algorithm = SunX509

                ssl.keystore.location = null

                ssl.keystore.password = [hidden]

                ssl.keystore.type = JKS

                ssl.protocol = TLS

                ssl.provider = null

                ssl.secure.random.implementation = null

                ssl.trustmanager.algorithm = PKIX

                ssl.truststore.location = null

                ssl.truststore.password = [hidden]

                ssl.truststore.type = JKS

                value.deserializer = class org.apache.kafka.common.serialization.StringDeserializer



15:30:30.035 [INFO ] [main] [o.a.kafka.common.utils.AppInfoParser] [T:] - Kafka version: 2.4.0

15:30:30.036 [INFO ] [main] [o.a.kafka.common.utils.AppInfoParser] [T:] - Kafka commitId: 77a89fcf8d7fa018

15:30:30.036 [INFO ] [main] [o.a.kafka.common.utils.AppInfoParser] [T:] - Kafka startTimeMs: 1623155430035

15:30:30.039 [INFO ] [main] [o.a.k.clients.consumer.KafkaConsumer] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Subscribed to topic(s): NT.COD.CLNT.CLIENTDEDUPLICATED

15:30:30.115 [INFO ] [main] [o.s.s.c.ThreadPoolTaskScheduler] [T:] - Initializing ExecutorService

15:30:30.225 [INFO ] [main] [o.a.coyote.http11.Http11NioProtocol] [T:] - Starting ProtocolHandler ["http-nio-8080"]

15:30:30.226 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [org.apache.kafka.clients.Metadata] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Cluster ID: WWD9osZARai6JKcsWKuLDw

15:30:30.227 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.AbstractCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Discovered group coordinator <host>:9092 (id: 2147483647 rack: null)

15:30:30.317 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.AbstractCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] (Re-)joining group

15:30:30.420 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.AbstractCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] (Re-)joining group

15:30:30.428 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Finished assignment for group at generation 58: {consumer-kafkaAdapter_group-1-d4ae6ab4-5711-4b67-b901-7841c4645050=org.apache.kafka.clients.consumer.ConsumerPartitionAssignor$Assignment@393e0908}

15:30:30.434 [INFO ] [main] [o.s.b.w.e.tomcat.TomcatWebServer] [T:] - Tomcat started on port(s): 8080 (http) with context path ''

15:30:30.434 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.AbstractCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Successfully joined group with generation 58

15:30:30.522 [INFO ] [main] [c.b.***.synapse.kafka.KafkaApplication] [T:] - Started KafkaApplication in 61.383 seconds (JVM running for 67.794)

15:30:30.524 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Adding newly assigned partitions: NT.COD.CLNT.CLIENTDEDUPLICATED-15, NT.COD.CLNT.CLIENTDEDUPLICATED-14, NT.COD.CLNT.CLIENTDEDUPLICATED-13, NT.COD.CLNT.CLIENTDEDUPLICATED-12, NT.COD.CLNT.CLIENTDEDUPLICATED-11, NT.COD.CLNT.CLIENTDEDUPLICATED-10, NT.COD.CLNT.CLIENTDEDUPLICATED-9, NT.COD.CLNT.CLIENTDEDUPLICATED-8, NT.COD.CLNT.CLIENTDEDUPLICATED-19, NT.COD.CLNT.CLIENTDEDUPLICATED-18, NT.COD.CLNT.CLIENTDEDUPLICATED-17, NT.COD.CLNT.CLIENTDEDUPLICATED-16, NT.COD.CLNT.CLIENTDEDUPLICATED-7, NT.COD.CLNT.CLIENTDEDUPLICATED-6, NT.COD.CLNT.CLIENTDEDUPLICATED-5, NT.COD.CLNT.CLIENTDEDUPLICATED-4, NT.COD.CLNT.CLIENTDEDUPLICATED-3, NT.COD.CLNT.CLIENTDEDUPLICATED-2, NT.COD.CLNT.CLIENTDEDUPLICATED-1, NT.COD.CLNT.CLIENTDEDUPLICATED-0

15:30:30.534 [INFO ] [main] [c.s.s.c.s.grpc.GRpcServerRunner] [T:] - Запуск gRPC сервера ...

15:30:30.534 [INFO ] [main] [c.s.s.c.s.grpc.GRpcServerRunner] [T:] - Настройки gRPC сервера: GRpcServerProperties(serverPort=5454, threadPool=ThreadPoolConfiguration(concurrentConsumers=1, maxConcurrentConsumers=5, threadKeepAliveSeconds=60))

15:30:30.623 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-15 to the committed offset FetchPosition{offset=2555, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.629 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-14 to the committed offset FetchPosition{offset=2570, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.629 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-13 to the committed offset FetchPosition{offset=2685, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.629 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-12 to the committed offset FetchPosition{offset=2569, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-11 to the committed offset FetchPosition{offset=2578, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-10 to the committed offset FetchPosition{offset=2631, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-9 to the committed offset FetchPosition{offset=2627, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-8 to the committed offset FetchPosition{offset=2632, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-19 to the committed offset FetchPosition{offset=2663, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-18 to the committed offset FetchPosition{offset=2639, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-17 to the committed offset FetchPosition{offset=2619, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-16 to the committed offset FetchPosition{offset=2677, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.630 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-7 to the committed offset FetchPosition{offset=2645, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-6 to the committed offset FetchPosition{offset=2607, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-5 to the committed offset FetchPosition{offset=2712, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-4 to the committed offset FetchPosition{offset=2540, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-3 to the committed offset FetchPosition{offset=2580, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-2 to the committed offset FetchPosition{offset=2613, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-1 to the committed offset FetchPosition{offset=2746, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.631 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.ConsumerCoordinator] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Setting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-0 to the committed offset FetchPosition{offset=2630, offsetEpoch=Optional.empty, currentLeader=LeaderAndEpoch{leader=<host>:9092 (id: 0 rack: null), epoch=-1}}

15:30:30.714 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.s.k.l.KafkaMessageListenerContainer] [T:] - kafkaAdapter_group: partitions assigned: [NT.COD.CLNT.CLIENTDEDUPLICATED-15, NT.COD.CLNT.CLIENTDEDUPLICATED-14, NT.COD.CLNT.CLIENTDEDUPLICATED-13, NT.COD.CLNT.CLIENTDEDUPLICATED-12, NT.COD.CLNT.CLIENTDEDUPLICATED-11, NT.COD.CLNT.CLIENTDEDUPLICATED-10, NT.COD.CLNT.CLIENTDEDUPLICATED-9, NT.COD.CLNT.CLIENTDEDUPLICATED-8, NT.COD.CLNT.CLIENTDEDUPLICATED-19, NT.COD.CLNT.CLIENTDEDUPLICATED-18, NT.COD.CLNT.CLIENTDEDUPLICATED-17, NT.COD.CLNT.CLIENTDEDUPLICATED-16, NT.COD.CLNT.CLIENTDEDUPLICATED-7, NT.COD.CLNT.CLIENTDEDUPLICATED-6, NT.COD.CLNT.CLIENTDEDUPLICATED-5, NT.COD.CLNT.CLIENTDEDUPLICATED-4, NT.COD.CLNT.CLIENTDEDUPLICATED-3, NT.COD.CLNT.CLIENTDEDUPLICATED-2, NT.COD.CLNT.CLIENTDEDUPLICATED-1, NT.COD.CLNT.CLIENTDEDUPLICATED-0]

15:30:30.930 [INFO ] [main] [c.s.s.c.s.grpc.GRpcServerRunner] [T:] - Зарегистрирован обработчик сервиса synapse: Сервис: c.b.synapse.gateway.MessageAsyncChannel/processMessage. Имплементация: com.***.synapse.kafka.service.GrpcService@3abada5a

15:30:31.025 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2555 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-15, resetting offset

15:30:31.028 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2570 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-14, resetting offset

15:30:31.028 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2685 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-13, resetting offset

15:30:31.028 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2569 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-12, resetting offset

15:30:31.028 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2578 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-11, resetting offset

15:30:31.028 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2631 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-10, resetting offset

15:30:31.028 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2627 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-9, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2632 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-8, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2663 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-19, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2639 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-18, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2619 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-17, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2677 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-16, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2645 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-7, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2607 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-6, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2712 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-5, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2540 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-4, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2580 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-3, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2613 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-2, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2746 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-1, resetting offset

15:30:31.029 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.consumer.internals.Fetcher] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Fetch offset 2630 is out of range for partition NT.COD.CLNT.CLIENTDEDUPLICATED-0, resetting offset

15:30:31.126 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-15 to offset 2764.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-14 to offset 2772.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-13 to offset 2869.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-12 to offset 2733.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-11 to offset 2775.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-10 to offset 2810.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-9 to offset 2796.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-8 to offset 2811.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-19 to offset 2821.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-18 to offset 2831.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-17 to offset 2796.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-16 to offset 2831.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-7 to offset 2823.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-6 to offset 2792.

15:30:31.127 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-5 to offset 2882.

15:30:31.128 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-4 to offset 2709.

15:30:31.128 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-3 to offset 2742.

15:30:31.128 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-2 to offset 2791.

15:30:31.128 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-1 to offset 2908.

15:30:31.128 [INFO ] [org.springframework.kafka.KafkaListenerEndpointContainer#0-0-C-1] [o.a.k.c.c.i.SubscriptionState] [T:] - [Consumer clientId=consumer-kafkaAdapter_group-1, groupId=kafkaAdapter_group] Resetting offset for partition NT.COD.CLNT.CLIENTDEDUPLICATED-0 to offset 2807.

15:30:31.716 [INFO ] [main] [c.s.s.c.s.grpc.GRpcServerRunner] [T:] - gRPC сервер запущен на порту 5454.

15:30:56.036 [INFO ] [http-nio-8080-exec-2] [o.a.c.c.C.[Tomcat].[localhost].[/]] [T:] - Initializing Spring DispatcherServlet 'dispatcherServlet'

15:30:56.036 [INFO ] [http-nio-8080-exec-2] [o.s.web.servlet.DispatcherServlet] [T:] - Initializing Servlet 'dispatcherServlet'

15:30:56.049 [INFO ] [http-nio-8080-exec-2] [o.s.web.servlet.DispatcherServlet] [T:] - Completed initialization in 13 ms

Примеры сообщений об ошибках

Не удалось отправить сообщение в GRPC сервис:

2022-08-11 12:18:30.465 [ERROR] [kafkaListener0-0-C-1] [c.s.s.k.s.l.ListenerDefaultExecutor] [T:] - Ошибка при отправке сообщения в сервис: RqUID:  java.lang.RuntimeException: Ошибка при вызове по GRPC localhost c.b.synapse.core.service.exception.SynapseException: Код ошибки: 701. Не получен ответ на gRPC вызов. ErrorMessage: UNAVAILABLE: io exception

Не удалось отправить сообщение в REST сервис:

2022-08-11 12:36:20.825 [ERROR] [kafkaListener0-0-C-1] [c.s.s.k.s.l.ListenerDefaultExecutor] [T:] - Ошибка при отправке сообщения в сервис: RqUID:  java.lang.RuntimeException: Ошибка при вызове по REST http://empty-service:80/ org.springframework.web.client.ResourceAccessException: I/O error on POST request for "http://empty-service:80/": empty-service: nodename nor servname provided, or not known; nested exception is java.net.UnknownHostException: empty-service: nodename nor servname provided, or not known

Не удалось получить destination из сообщения:

2022-08-11 12:42:55.899 [ERROR] [http-nio-8081-exec-1] [c.s.s.k.routing.DestinationResolver] [T:] - Ошибка парсинга сообщения и получения destination: 

События прикладного журнала#

Прикладной журнал фиксируется в файле /opt/synapse/logs/messages.log в формате json.

В прикладном журнале фиксируются события:

  • получения сообщения

  • отправки сообщения

  • возникновения ошибки

Каждая запись о событии в журнале содержит:

Имя поля

Требование к заполнению

Обязательность

projectName

Имя проекта в Kubernetes/DropApp или Red Hat OpenShift. Заполняется автоматически

1

podSource

Имя Pod в Kubernetes/DropApp или Red Hat OpenShift, записавшего событие. Заполняется автоматически

1

event_timestamp

Время фиксации события в Pod. Заполняется автоматически

1

message

Тело передаваемого сообщения

1

information

Информация о событии

0

rqUID

Уникальный идентификатор запроса. Основной идентификатор для поиска записей в журнале.

1

serviceReceiver

Имя вызываемого сервиса (получателя)

0

operationName

Название операции (корневого тега сообщения)

0

status

Статус операции

0

Для отображения событий прикладного журнала может быть использован продукт Platform V Monitor (OPM), интеграция с которым производится через компонент Журналирование (LOGA).

События мониторинга#

Для просмотра событий мониторинга через веб-интерфейс Kubernetes/DropApp или Red Hat OpenShift, необходимо проделать действия из пункта Сценарии администрирования: просмотр событий мониторинга платформы оркестрации.

Также KFGT выставляет HTTP-endpoint (actuator/prometheus), на котором публикует метрики мониторинга в формате Prometheus (MONA):

Метрика

Описание

http_server_requests_seconds_count

Кол-во сообщений полученных по Rest

sended_messages_via_rest_grpc_total

Кол-во сообщений отправленных по grpc/rest

kafka_topic_received_messages_total

Кол-во сообщений полученных из topic(s)

kafka_topic_ratelimited_messages_total

Кол-во сообщений пропущенных по правила RateLimiter

kafka_topic_sended_messages_total

Кол-во сообщений отправленных в topic(s)

spring_kafka_listener_seconds

Время исполнения задачи чтения из topic(s)

spring_kafka_template_seconds

Время исполнения задачи отправки сообщения по Rest

rest_to_kafka_seconds

Время исполнения задачи записи в topic(s)

Примеры событий мониторинга#

Загрузка образа#

Pulling image "registry.***.***.ru/***/***-kafka-gw/rhel7-java-***-grpc-kafka-adapter-***:0.1.0.130"

Сообщение об успешной загрузке образа#

Successfully pulled image "registry.***.***.ru/***/***-kafka-gw/rhel7-java-***-grpc-kafka-adapter-***:0.1.0.130" in 5.051913509s

Создание контейнера#

Created container grpc-kafka-adapter-scm

Запуск контейнера#

Started container grpc-kafka-adapter-scm

Ошибка проверки жизнеспособности приложения#

Liveness probe failed: HTTP probe failed with statuscode: 500
Liveness probe failed: Get "http://29.65.17.25:15020/app-health/grpc-kafka-adapter-scm/livez": dial tcp 29.65.17.25:15020: connect: connection refused

Ошибка проверки готовности приложения к работе#

Readiness probe failed: HTTP probe failed with statuscode: 500
Readiness probe failed: Get "http://29.65.17.25:15020/app-health/grpc-kafka-adapter-scm/readyz": dial tcp 29.65.17.25:15020: connect: connection refused

Часто встречающиеся проблемы и пути их решения#

Проблема

Причина

Решение

Не стартует Pod приложения

Недостаточно ресурсов

Увеличьте лимиты/реквесты для приложения

Не стартует Pod приложения

Нет доступной node(s) для запуска

Зарегистрируйте обращение в поддержку инфраструктуры

Не стартует Pod приложения

Ошибка в конфигурации

Выгрузите журнал, проведите анализ, скорректируйте конфигурацию

Частый перезапуск контейнера приложения

Медленная загрузка приложения

Увеличьте задержку и/или интервал опроса Liveness-пробы

Частый перезапуск контейнера приложения

Недостаточно ресурсов

Увеличьте лимиты/реквесты для приложения

Ошибка при вызове по gRPC

Нет доступных Pods сервиса, которому направлен вызов

Проверьте состояние сервиса — получателя вызова

Ошибка при вызове по gRPC

Ошибки в конфигурации сервисного прокси

Выгрузите журнал сервисного прокси, проанализируйте, устраните ошибки

Ошибка при вызове по Kafka

Отсутствует topic(s), к которому требуется подключиться

Создайте topic(s) в Kafka

Ошибка при вызове по Kafka

Ошибки в конфигурации сервисного прокси

Выгрузите журнал сервисного прокси, проанализируйте, устраните ошибки

Ошибка при вызове по Kafka

Параметры подключения к Kafka некорректны

Сопоставьте параметры configMap с параметрами Apache Kafka, к которому требуется подключиться, и устраните ошибки

org.apache.kafka.common.KafkaException: Cannot execute transactional method because we are in an error state (Cluster authorization failed)

Недостаточно прав для IdempotentWrite

Установить enable.idempotence: false или выдать права