Kafka12 Streaming Data to RDBMS via Kafka JDBC Sink Connector Without Leveraging Schema Registry https://dzone.com/articles/streaming-data-to-rdbms-via-kafka-jdbc-sink Streaming Data to RDBMS via Kafka JDBC Sink Connector without leveraging Schema Registry The biggest difficulty with the JDBC sink connector is that it requires knowledge of the schema of data that has already landed on the Kafka topic. Schema dataview.in 2023. 4. 5. Techniques You Should Know as a Kafka Streams Developer https://dzone.com/articles/techniques-you-should-know-as-a-kafka-streams-developer Techniques You Should Know as a Kafka Streams Developer - DZone In this article, readers will discover some tips and nice techniques that will help you build a resilient and distributed application with Kafka Streams. dzone.com 2023. 4. 5. Kafka 도입 스토리 - 홈쇼핑 방송영역 활용 사례 https://gsretail.tistory.com/27 Kafka 도입 스토리 - 홈쇼핑 방송영역 활용 사례 들어가며... 개발자 온라인 커뮤니티 중 하나인 DZone의 2022년 리서치에 의하면 개발자의 마이크로서비스를 운영하는 비율이 93%라고 합니다. 마이크로 서비스에 대한 부정적 의견들도 나오고 있 gsretail.tistory.com 2023. 4. 3. KAFKA 서비스 활용 스터디 사례 밋업 후기 https://taetaetae.github.io/posts/kafka-service-utilization-study-case-review/ KAFKA 서비스 활용 스터디 사례 밋업 후기 필자는 오프라인에서 진행하는 밋업이나 콘퍼런스 가는 것을 좋아한다. 발표하는 내용을 전부다 이해해서 듣고 온다는 건 거짓말이겠지만 간혹 들었던 내용을 팀 내에 적용해 본다거나 몰랐던 taetaetae.github.io 2023. 4. 3. Kafka 핵심 포인트 Kafka 핵심 포인트 Partition의 개수 >= Consumer 인스턴스의 갯수 전달 보증 - 요구사항에 따라 적절하게 조절 At Most Once : 재전송 유무 X, 중복 삭제 유무 X At Least Once : 재전송 유무 O, 중복 삭제 유무 X Eactly Once : 재전송 유무 O, 중복 삭제 유무 O Offset Commit - 요구사항에 따라 적절하게 조절 Auto Offset Commit Manual Offset Commit commitSync commitAsync Offset 은 Constumer Group 별로 관리된다. 하나의 메시지를 다른 Constumer Group 에서 똑같은 값을 consume 가능, 하지만, 같은 Constumer Group 내에서는 오직 한번만 가.. 2020. 9. 19. 이전 1 2 3 다음 728x90