Encontrar

文章
· 8 hr 前 阅读大约需 6 分钟

Ritu Tech N Build – Transforming Prefabricated Construction in Haridwar With Innovation, Quality & Speed

 

In today’s rapidly evolving industrial world, businesses rely on structures that are strong, reliable, cost-effective and quick to build. Traditional construction methods often fail to offer this perfect balance. That’s exactly where Ritu Tech N Build, commonly known as RituTech, has established itself as one of the most trusted and forward-thinking names in the construction industry—especially for prefabricated structures in Haridwar and the surrounding industrial hubs of Uttarakhand.

Over the last several years, RituTech Haridwar has become synonymous with superior quality engineering, advanced prefabrication technologies, and timely project delivery. Whether you’re planning to build a warehouse, an industrial shed, a production unit, or a multi-storey steel structure, Ritu Tech Haridwar offers turnkey solutions designed to meet modern industrial demands.

 


A Pioneer in Prefabricated Structures in Haridwar

With industries growing exponentially in SIDCUL and nearby regions, the demand for strong, quick-to-erect and cost-efficient structures has never been higher. This is where RituTech stands out as a leading prefabricated structures manufacturer in Haridwar. Their dedication to innovation, precision engineering and customer-focused execution has helped them become a preferred choice for companies looking to expand or build from the ground up.

Unlike many service providers who focus only on one phase, Ritu Tech N Build manages everything—from design and engineering to fabrication, installation, finishing and handover. This seamless process ensures that every client gets a ready-to-use structure delivered within the promised timeline.

 


Why Businesses Choose RituTech Haridwar

1. Faster Construction with Zero Compromise on Quality

The biggest advantage of working with a prefabricated structures company in Haridwar is the remarkable speed of construction. Prefabricated elements are manufactured in a controlled environment using advanced machinery and assembled on-site with minimal welding. This drastically reduces delays caused by weather conditions, labour issues, and material wastage.

Ritu Tech’s prefabricated solutions help industries become operational much faster—giving them a competitive advantage in both time and cost.

 


2. Better Cost Efficiency Than Conventional Construction

Prefabricated technology naturally reduces overall costs by saving labour hours, reducing material wastage and enabling quicker project completion. For industries in Haridwar and SIDCUL looking to expand their operations without stretching their budget, ritutech provides the ideal blend of affordability and long-term reliability.

 


3. Customised Design for Every Industry

Whether you need a large-span production unit, a storage godown, a high-capacity warehouse, or a modern commercial set-up, Ritu Tech Haridwar creates structures tailored to the unique needs of each business sector. Every design is engineered to withstand heavy industrial usage, long-term wear, unpredictable weather and local environmental conditions.

Their engineering team ensures that every project follows a systematic approach—taking into account structural load, future expansion possibilities, ventilation, insulation, interior workflow efficiency and aesthetic considerations.

 


4. Strong Local Presence Means Better Service

Because Ritu Tech N Build operates actively in Haridwar and other Uttarakhand industrial regions, clients benefit from faster responses, easier coordination and improved on-site supervision. Their local experience also ensures smoother project management, faster delivery of materials and deep understanding of regional industrial requirements.

This local advantage is one of the reasons why more businesses now search for ritutech haridwar when looking for dependable prefabricated building partners.

 


Product & Service Expertise That Covers Every Industrial Need

Ritu Tech’s offerings are broad and versatile, making them a complete construction partner for industries across Uttarakhand and North India. Here are the major solutions they provide:

• Prefabricated Building Structures in Haridwar

These include industrial sheds, warehouses, workshops, store units, production facilities and much more. Built with precision and high-grade steel, these prefabricated structures provide long life, stability and low maintenance.

• Pre-Engineered Buildings (PEB)

Their PEB systems are fast, economical and lightweight. They allow easy expansion and modification, perfect for industries expecting long-term growth.

• Multi-Storey Steel Buildings

For showrooms, offices, institutions or mixed-use commercial spaces, RituTech offers multi-storey steel structures known for strength, safety and modern aesthetics.

• Metal Roofing, Decking Sheets & Cladding

Their roofing and wall panel systems enhance structural durability while improving insulation, temperature regulation and overall building aesthetics.

• Tensile Structures & Custom Projects

From tensile covers to parking sheds and custom steel projects, RituTech’s creativity and engineering innovation shine through.

Every structure manufactured by RituTech reflects meticulous detailing, advanced machinery usage and strict adherence to quality standards—making them a reliable prefabricated structures company in Haridwar.

 


Industries That Rely on RituTech

Companies from multiple segments trust Ritu Tech N Build for their structural needs. Some key sectors include:

  • Pharmaceuticals
  • Food processing
  • Manufacturing units
  • FMCG companies
  • Automotive component plants
  • Packaging industries
  • E-commerce warehousing
  • Cold storage units
  • Commercial retail buildings
  • Educational and institutional buildings

The flexibility and speed of prefabricated building structures in Haridwar make them ideal for industries with continuous demand for expansion and quick operational setup.

 


The RituTech Approach: Transparent, Efficient & Client-Centric

What makes clients repeatedly choose RituTech is their well-structured execution model:

Step 1 – Requirement Study & Site Assessment

The team first understands the client’s operational needs, machinery load, land size and future expansion plans.

Step 2 – Tailored Structural Design

Every drawing is engineered to optimise strength, airflow, functionality and aesthetic appeal.

Step 3 – Fabrication in World-Class Facilities

Precision-cut components are manufactured in advanced workshops, ensuring perfect alignment and minimal on-site adjustments.

Step 4 – Delivery & On-Site Erection

Teams assemble the entire structure quickly using pre-engineered components, ensuring minimal disruption.

Step 5 – Final Finishing & Handover

The structure is inspected, validated and delivered as a ready-to-operate asset.

This transparent and disciplined approach has helped ritutech build long-term trust with clients.

 


Why RituTech Is the Best Choice for Prefabricated Structures in Haridwar

  • Strong reputation & proven track record
  • Local manufacturing and service presence
  • Faster project completion
  • Durable, corrosion-resistant structures
  • Competitive pricing and full value for money
  • Modern machinery & strict quality control
  • 100% customisable solutions
  • Long-term service support and maintenance options

For companies in SIDCUL, Shivalik Nagar, Roorkee, Dehradun and nearby areas, partnering with Ritu Tech Haridwar ensures top-level construction quality delivered in record time.

 


Future-Ready Construction for Growing Businesses

The industrial growth in Haridwar and Uttarakhand is accelerating rapidly. With companies expanding manufacturing capacity, upgrading warehouses and setting up new units, the need for modern prefabricated construction technology is becoming essential.

Ritu Tech N Build is not just a manufacturer—it is a strategic partner helping businesses grow with infrastructure that is strong, scalable and long-lasting.

If your business aims to move fast, reduce costs and upgrade your operations, choosing RituTech Haridwar is one of the smartest decisions you can make.

 


Final Words

As industries evolve, construction methods must evolve too. Prefabricated technology is the future of industrial building—and RituTech is leading that future in Haridwar. With unmatched expertise, modern engineering capabilities and years of hands-on experience, Ritu Tech N Build stands tall as a dependable and results-driven prefabricated structures manufacturer in Haridwar.

If you’re planning your next industrial shed, warehouse, PEB building, or commercial project, then ritutech haridwar is the partner that will turn your vision into a strong, reliable and efficient structure.

讨论 (0)1
登录或注册以继续
InterSystems 官方
· 11 hr 前

发布说明:InterSystems 云服务——版本 25.22.2

概述

该版本引入了FHIR Server 2025.10.0,该版本遵循最新标准并实现了性能提升。它还增强了Health Connect Cloud(HCC)升级流程,提高了其可靠性,并通过在 VPN 配置中支持前缀列表为Network Connect增加了新的灵活性。


新功能和增强功能

类别

功能/改进

详细信息

FHIR Server

发布 FHIR 服务器 2025.10.0

推出 InterSystems FHIR Server 的最新版本,具有更高的可扩展性、更强的 FHIR R5 一致性以及对批量数据交换的优化。

Health Connect Cloud

升级流程改进

简化和强化了 HCC 部署的升级工作流程,缩短了维护窗口持续时间,提高了回滚安全性和自动化准确性。

Network Connect

静态 VPN 导入支持前缀列表

静态 VPN 导入任务现在支持 AWS 前缀列表,简化了路由管理,使客户环境中的网络配置更加动态和一致。


推荐操作

此版本无建议操作。


支持

如需帮助或了解有关这些更新的更多信息,请通过 iService 或 InterSystems 云服务门户(InterSystems Cloud Service Portal)提交支持请求。

©2025 InterSystems Corporation。保留所有权利。

讨论 (0)1
登录或注册以继续
文章
· 16 hr 前 阅读大约需 12 分钟

Data Streaming com interoperabilidade do InterSystems IRIS

As arquiteturas de dados modernas utilizam soluções de captura, transformação, movimentação e carregamento de dados em tempo real para construir data lakes, data warehouses analíticos e repositórios de big data. Isso permite a análise de dados de diversas fontes sem impactar as operações que os utilizam. Para alcançar esse objetivo, é essencial estabelecer um fluxo de dados contínuo, escalável, elástico e robusto. O método mais comum para isso é a técnica de CDC (Change Data Capture). O CDC monitora a produção de pequenos conjuntos de dados, captura esses dados automaticamente e os entrega a um ou mais destinatários, incluindo repositórios de dados analíticos. O principal benefício é a eliminação do atraso D+1 na análise, já que os dados são detectados na origem assim que são produzidos e, posteriormente, replicados para o destino.

Este artigo demonstrará as duas fontes de dados mais comuns para cenários de CDC, tanto como origem quanto como destino. Para a origem dos dados, exploraremos o CDC em bancos de dados SQL e arquivos CSV. Para o destino dos dados, utilizaremos um banco de dados colunar (um cenário típico de banco de dados analítico de alto desempenho) e um tópico do Kafka (uma abordagem padrão para transmitir dados para a nuvem e/ou para vários consumidores de dados em tempo real).

Visão Breve

Este artigo fornecerá um exemplo para o seguinte cenário de interoperabilidade:

 

  1. O SQLCDCAdapter utilizará o SQLInboundAdapter para detectar novos registros no banco de dados SQL e extraí-los com a ajuda de uma conexão JDBC e da linguagem SQL.
  2. O SQLCDCAdapter encapsulará os dados capturados em uma mensagem e a enviará para o CDCProcess (um Processo de Negócio usando a notação BPL).
  3. O CDCProcess recebe os dados SQL como uma mensagem e utiliza a Operação SQL para persistir os dados no IRIS e a Operação Kafka para transmitir os dados capturados para um tópico do Kafka.
  4. A Operação SQL persistirá os dados da mensagem em uma Classe Persistente do InterSystems IRIS modelada como armazenamento colunar.
  5. O armazenamento colunar é uma opção que oferece desempenho superior em consultas para dados analíticos.
  6. A Operação Kafka transformará a mensagem em JSON e a enviará para um tópico do Kafka, onde um data lake na nuvem ou qualquer outro assinante poderá consumi-la.
  7. Esses fluxos de dados são executados em tempo real, estabelecendo um fluxo de dados contínuo.
  8. O Serviço BAM calculará as métricas de negócios a partir da tabela colunar em tempo real. Um painel de BI exibirá as métricas de negócios resultantes para o usuário instantaneamente.

Instalando o exemplo

O pacote iris-cdc-sample (https://openexchange.intersystems.com/package/iris-cdc-sample) é um aplicativo de exemplo que implementa o cenário descrito acima. Para instalá-lo, siga estas etapas:

1. Clone/git pull o repositório em qualquer diretório local:

$ git clone https://github.com/yurimarx/iris-cdc-sample.git

2. Abra o terminal neste diretório e execute o comando abaixo:

$ docker-compose build

3. Execute o contêiner IRIS com seu projeto:

$ docker-compose up -d


Componentes do exemplo

Este exemplo utiliza os seguintes contêineres:

  • iris: Plataforma InterSystems IRIS, incluindo:
    • Banco de Dados Colunar IRIS (para armazenar os dados capturados).
    • Interoperabilidade IRIS com um ambiente de produção para executar o processo de CDC (captura de dados de alteração). A produção captura dados de um banco de dados externo (PostgreSQL), os persiste no IRIS e os transmite para um tópico do Kafka.
    • IRIS BAM (Monitoramento de Atividade Comercial) para calcular métricas de vendas em tempo real por produto e exibi-las em um painel.
  • salesdb: Um banco de dados PostgreSQL contendo dados de vendas a serem capturados em tempo real.
  • zookeeper: Um serviço usado para gerenciar o broker Kafka.
  • kafka: O broker Kafka com o tópico de vendas, utilizado para receber e distribuir dados de vendas como eventos em tempo real.
  • kafka-ui: Uma interface web do Kafka para administração e operação de tópicos e eventos.
services:
  iris:
    build:
      context: .
      dockerfile: Dockerfile
    restart: always
    command: --check-caps false --ISCAgent false
    ports:
      - 1972
      - 52795:52773
      - 53773
    volumes:
      - ./:/home/irisowner/dev/
    networks:
      - cdc-network
  salesdb:
    image: postgres:14-alpine
    container_name: sales_db
    restart: always
    environment:
      POSTGRES_USER: sales_user
      POSTGRES_PASSWORD: welcome1
      POSTGRES_DB: sales_db
    volumes:
      - ./init.sql:/docker-entrypoint-initdb.d/init.sql
      - postgres_data:/var/lib/postgresql/data/
    ports:
      - "5433:5432"
    networks:
      - cdc-network


  zookeeper:
      image: confluentinc/cp-zookeeper:7.5.0
      container_name: zookeeper
      hostname: zookeeper
      networks:
        - cdc-network
      ports:
        - "2181:2181"
      environment:
        ZOOKEEPER_CLIENT_PORT: 2181
        ZOOKEEPER_TICK_TIME: 2000
  kafka:
    image: confluentinc/cp-kafka:7.5.0
    container_name: kafka
    hostname: kafka
    networks:
      - cdc-network
    ports:
      - "9092:9092"
    depends_on:
      - zookeeper
    environment:
      KAFKA_BROKER_ID: 1
      KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
      KAFKA_LISTENER_SECURITY_PROTOCOL_MAP: PLAINTEXT:PLAINTEXT,PLAINTEXT_HOST:PLAINTEXT
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://kafka:29092,PLAINTEXT_HOST://kafka:9092
      KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1
      KAFKA_GROUP_INITIAL_REBALANCE_DELAY_MS: 0
  kafka-ui:
      image: provectuslabs/kafka-ui:latest
      container_name: kafka-ui
      hostname: kafka-ui
      networks:
        - cdc-network
      ports:
        - "8080:8080"
      depends_on:
        - kafka
      environment:
        KAFKA_CLUSTERS_0_NAME: local_kafka_cluster
        KAFKA_CLUSTERS_0_BOOTSTRAPSERVERS: kafka:29092
volumes:
  postgres_data:
    driver: local


networks:
  cdc-network:
    driver: bridge

Criando uma tabela colunar

Tabelas colunares são utilizadas para armazenar dados não normalizados, como os seguintes:

Nome do produto

Nome Loja

Valor venda (Price)

Orange

Store 1

120

Orange 

Store 1

200

Banana

Store 2

100

Banana

Store 1

120

Orange

Store 2

110

Como os valores de Nome do Produto e Nome da Loja se repetem com frequência, armazenar os dados em formato colunar (como colunas em vez de linhas) conserva espaço de armazenamento e proporciona um desempenho superior na recuperação de dados. Historicamente, esse tipo de processamento exigia a criação de cubos de BI. No entanto, o armazenamento colunar resolve esse problema, eliminando a necessidade de replicar dados operacionais em cubos.
Agora, siga estas etapas para criar a tabela colunar de Vendas para o nosso exemplo:

1. Crie uma nova classe ObjectScript chamada Sales dentro do pacote dc.cdc.

2. Escreva o seguinte código-fonte:

Class dc.cdc.Sales Extends %Persistent [ DdlAllowed, Final ]
{

Parameter STORAGEDEFAULT = "columnar";
Parameter USEEXTENTSET = 1;
Property ProductName As %String;
Property StoreName As %String;
Property SalesValue As %Double;
}

3. O parâmetro STORAGEDEFAULT = "columnar" configura a tabela dc_cdc.Sales para usar columnar storage, ao invés de usar linha.

Criando a operação comercial para salvar os dados capturados

Após capturar os dados de vendas em um StreamContainer usando o SalesSqlService (nenhuma implementação é necessária; a configuração é feita no ambiente de produção na seção "Executando CDC"), precisamos de uma Operação de Negócios para processar o StreamContainer, extrair os dados de vendas do PostgreSQL e salvá-los na tabela Sales. Execute os passos abaixo:
1. Crie a classe SalesOperation dentro do pacote dc.cdc.
2. Escreva o código-fonte abaixo:

Class dc.cdc.SalesOperation Extends Ens.BusinessOperation
{

Method ProcessSalesData(pRequest As Ens.StreamContainer, Output pResponse As Ens.StringResponse) As %Status
{
    Set tSC = $$$OK
    Set pResponse = ##class(Ens.StringResponse).%New()

    Try {
        
        Set tStream = pRequest.Stream
        
        Do tStream.Rewind()

        Set content = ""
        While 'tStream.AtEnd {
            Set content = content _ tStream.Read(4096) 
        }

        Set tDynamicObject = {}.%FromJSON(content)
        
        Set sales = ##class(dc.cdc.Sales).%New()
        Set sales.ProductName = tDynamicObject."product_name"
        Set sales.StoreName = tDynamicObject."store_name"
        Set sales.SalesValue = tDynamicObject."sales_value"
        Set tSC = sales.%Save()

        Set pResponse.StringValue = tDynamicObject.%ToJSON()
        
    } Catch (ex) {
        Set tSC = ex.AsStatus()
        Set pResponse.StringValue = "Error while saving sales data!"
        $$$LOGERROR("Error while saving sales data: " _ ex.DisplayString())
    }

    Quit tSC
}

XData MessageMap
{
<MapItems>
  <MapItem MessageType="Ens.StreamContainer">
    <Method>ProcessSalesData</Method>
  </MapItem>
</MapItems>
}

}

3. O método ProcessSalesData receberá mensagens do tipo StreamContainer (devido à definição de MessageMap).

4. O método lerá os dados de vendas capturados em uma string JSON, carregará o JSON em um DynamicObject, criará um objeto Sales, definirá os valores de suas propriedades e o salvará na tabela Sales.

5. Finalmente, o método retornará a string JSON representando os dados de vendas na resposta.

 

Criando o serviço do BAM para monitorar vendas (Sales)

O InterSystems IRIS para Interoperabilidade inclui a funcionalidade BAM, permitindo monitorar dados de negócios em tempo real processados ​​em produção usando um Painel de Análise. Para criar o serviço BAM, siga os passos abaixo:
1. Crie uma nova classe chamada SalesMetric que estenda Ens.BusinessMetric no pacote dc.cdc.
2. Escreva o seguinte código-fonte:

Class dc.cdc.SalesMetric Extends Ens.BusinessMetric
{

Property TotalSales As Ens.DataType.Metric(UNITS = "$US") [ MultiDimensional ];
Query MetricInstances() As %SQLQuery
{
  SELECT distinct(ProductName) FROM dc_cdc.Sales
}

/// Calculate and update the set of metrics for this class
Method OnCalculateMetrics() As %Status
{
    Set product = ..%Instance
    Set SalesSum = 0.0
    &sql(
        select sum(SalesValue) into :SalesSum from dc_cdc.Sales where ProductName = :product 
    )

    Set ..TotalSales = SalesSum

    Quit $$$OK
}

}

3. A propriedade TotalSales permite o monitoramento em tempo real da soma das vendas por produto.
4. A propriedade Query MetricInstances define quais produtos devem ser monitorados.
5. O método OnCalculateMetrics calcula a soma das vendas para cada produto.
6. Esta classe será utilizada em um painel para gerar o total de vendas por produto em tempo real.

Executando o Processo e Produção do CDC - Change Data Capture


Nosso diagrama de produção final, com todos os processos ETL (Extração, Transformação e Carga) necessários, é mostrado abaixo:

 

Siga os próximos passos:

1. Acesse o ambiente de produção do CDC: http://localhost:52795/csp/user/EnsPortal.ProductionConfig.zen?PRODUCTIO...
2. Crie um novo EnsLib.JavaGateway.Service chamado Java (necessário para o SalesSqlService).

3. Gere um serviço de negócios chamado SalesSqlService (SQLCDCService) e configure os seguintes parâmetros:

a. DSN (string de conexão para PostgreSQL): jdbc:postgresql://sales_db:5432/sales_db.

b. Credenciais: Crie um pg_cred com o nome de usuário (sales_user) e a senha (welcome1) para acessar o PostgreSQL.

c. Nomes de configuração de destino: SalesProcess (o processo do CDC).

d. Consulta (para selecionar os dados a serem consumidos): select * from sales.

e. Nome do Campo Chave (a coluna que o IRIS usa para rastrear linhas já capturadas): id.
f. Serviço Java Gateway (obrigatório porque o adaptador CDC usa JDBC): Java (Java Gateway para esta produção).

g. Driver JDBC: org.postgresql.Driver.

h. Classpath JDBC (um driver para conectar com o PostgreSQL, copiado via script Dockerfile): /home/irisowner/dev/postgresql-42.7.8.jar.

4. Crie uma nova instância de dc.cdc.SalesMetric chamada SalesMetric.

5. Gere uma nova instância de EnsLib.Kafka.Operation e nomeie-a como SalesKafkaOperation (Operação Kafka) com os seguintes parâmetros:

a. ClientID: iris
b. Servers: kafka:9092

6. Crie uma nova instância de dc.cdc.SalesOperation chamada SalesOperation.

7. Desenvolva um Processo de Negócio chamado SalesProcess. A lógica de implementação do BPL deve ser a seguinte:

a. Diagrama final:

 

b. Crie 2 propriedades no Context:

i. `Sales` com o tipo `Ens.StringResponse` para armazenar os dados de vendas como uma string JSON.
ii. `KafkaMessage` com o tipo `EnsLib.Kafka.Message` (para ser usado para enviar os dados capturados para o tópico `sales-topic` do Kafka).

c. Gere uma chamada, salve na tabela `Sales` e defina o seguinte:

i. Destino: `SalesOperation`
ii. Classe da mensagem de solicitação: `Ens.StreamContainer` (dados capturados como fluxo)
iii. Ações da solicitação:

 

iv. Classe da mensagem de resposta: Ens.StringResponse (o fluxo será convertido em uma representação em string JSON dos dados capturados)

v. Ações de resposta:

 

d. Crie um bloco de código e escreva um código ObjectScript que preencha a mensagem do Kafka com as propriedades necessárias para que os dados de vendas (como uma string JSON) sejam publicados como um evento no tópico de vendas do broker do Kafka:

Set context.KafkaMessage.topic = "sales-topic"
Set context.KafkaMessage.value = context.Sales.StringValue 
Set context.KafkaMessage.key = "iris"

e. Crie uma chamada para o tópico de vendas do Kafka e defina o seguinte design:

i. Destino: SalesKafkaOperation
ii. Classe da mensagem de solicitação: %Library.Persistent (KafkaMessage é persistente)
iii. Ações da solicitação:

 

f. Crie uma atribuição chamada "Enviar Resposta" com o seguinte conteúdo:

i. Propriedade: response.StringValue
ii. Valor: "Processo finalizado!"

 

Vendo os resultados do CDC

Após habilitar o CDCProduction, insira alguns registros na tabela de vendas do PostgreSQL usando sua ferramenta de administração de banco de dados (DBeaver ou PgAdmin) e observe os resultados das mensagens de produção.

 

Consulte o diagrama de sequência para entender o processo do CDC (clique em qualquer link do cabeçalho da mensagem):

 

Visualizando o monitoramento do BAM em um painel de análise

Ao capturar dados em tempo real, você naturalmente deseja visualizar os resultados instantaneamente em um painel. Siga os passos abaixo para conseguir isso:
1. Acesse Analytics > Portal do Usuário (User Portal):

 

2. Clique Add Dashboard:

 

3. Defina as propriedades abaixo e clique em OK:

a. Pasta: Ens/Analytics
b. Nome do painel: Sales BAM

4. Clique em Widgets:

 

5. Clique o botão mais:

 

6. Configure the Widget as shown below:
 

7. Ajuste o novo widget para cobrir toda a área do painel.

8. Agora, selecione WidgetSales:

9. Escolha Controls:
  

10. Clique no botão mais:
  

11. Configure o controle conforme ilustrado abaixo (para visualizar o total de vendas em tempo real, com atualização automática):

12. Agora, quando novos valores forem capturados, o painel exibirá imediatamente os valores atualizados para TotalSales.

Para aprender mais:

A documentação da InterSystems pode ajudá-lo a aprofundar seus conhecimentos em CDC, BAM, Kafka e interoperabilidade. Visite as páginas abaixo para saber mais:

  1. BAM: https://docs.intersystems.com/iris20252/csp/docbook/Doc.View.cls?KEY=EGIN_options#EGIN_options_bam  
  2. Kafka: https://docs.intersystems.com/iris20252/csp/docbook/Doc.View.cls?KEY=ITECHREF_kafka 
  3. Adaptadores SQL (CDC para tabelas SQL): https://docs.intersystems.com/iris20252/csp/docbook/Doc.View.cls?KEY=ESQL_intro
  4. Criando produções de ETL/CDC: https://docs.intersystems.com/iris20252/csp/docbook/Doc.View.cls?KEY=PAGE_interop_languages
  5. BPL (low code para processos de negócio): https://docs.intersystems.com/iris20252/csp/docbook/Doc.View.cls?KEY=EBPL_use

 

讨论 (0)1
登录或注册以继续
文章
· 18 hr 前 阅读大约需 4 分钟

IKO Plus: Shhhhhhhhh - Secrets Management for IRIS Clusters with External Secrets Operator

Now Under Heavy Rotation, Your IrisCluster Secrets

A few days before Kubecon, the external-secrets-operator went GA with 1.0.0 and is set to ride shotgun for Kubernetes Secrets Management and put Vault in the backseat.  You can glance at the "Providers" list for the solution and immediatley understand that you can leave the "which Secrets Manager" conversation to others while you do your job utilizing external secrets on your IrisCluster workloads, which by my count with the operator and a single IrisCluster is more than a fistful of secrets of different types, even under a single tenant.  So let them sprawl, the secrets managers that is, not the secrets.

Distraction

Lets generate a pull secret in Google Cloud Secret Manager for use with the InterSystems Kubernetes Operator from containers.intersystems.com and use the secret to pull the protected iko image.

Cluster

Lets stand up a k0s cluster for use locally.

# Download k0s
curl -sSLf https://get.k0s.sh | sudo sh

# Install k0s as a service
sudo k0s install controller --single

# Start k0s as a service
sudo k0s start

# Check service, logs and k0s status
sudo k0s status

image.png

The Secret

We need to generate a secret for containers.intersystems.com and jam it in Google Cloud Secret Manager for starters.

In Google Cloud, enable Secrets Manager

gcloud auth login
gcloud config set project ikoplus
gcloud services enable secretmanager.googleapis.com

Now, lets create a docker secret from containers.intersystems.com

docker login -u="ron.sweeney@integrationrequired.com" -p="someOfYourbaseAreBelongToUs" containers.intersystems.com

This will create a config.json somewhere on your system, we now need to jam it in GCP as a secret.

gcloud secrets create ikoplus-eso-gcp \
  --project="ikoplus" \
  --replication-policy="automatic" \
  --data-file=./config.json

 

External Secrets Operator

Lets install the external-secrets-operator itself, and wire up the Google Secret Manager to our new resource type: SecretStore.

Install the Chart

helm repo add external-secrets https://charts.external-secrets.io

helm install external-secrets \
   external-secrets/external-secrets \
    -n external-secrets \
    --create-namespace

Give it a minute to figure itself out, and when you are done you should have a total of 12 pods or so across 3 deployments in namespace "external-secrets", here is our view from Headlamp (so far).

image.png

Provision a SecretStore

So the custom resource provided by external-secrets-operator, the SecretStore has a direct communication line to talk to Google Cloud External Secrets.  For this I created a service account, scoped with Secret Manager Admin, and created a key for the SecretStore to use.

kubectl -n ikoplus create secret generic gcp-sm-credentials   --from-file=secret-access-credentials=ikoplus-293eb407499d.json

Apply the below, its commented enough to just fill it out like a form:

# gcpsm-secretstore.yaml
apiVersion: external-secrets.io/v1
kind: SecretStore
metadata:
  name: gcp-sm-store
  namespace: ikoplus
spec:
  provider:
    gcpsm:
      projectID: ikoplus
      auth:
        secretRef:
          secretAccessKeySecretRef:
            name: gcp-sm-credentials
            key: secret-access-credentials
kubectl apply -f secretstore.yaml --kubeconfig ikoplus-eso.kubeconfig

Create ExternalSecret

Now, link the ExternalSecret to a plain 'ol Kubernetes secret.

# externalsecret-dockerconfig.yaml
apiVersion: external-secrets.io/v1
kind: ExternalSecret
metadata:
  name: external-containers-pull-secret # I like to just prepend "external"
  namespace: ikoplus
spec:
  refreshInterval: 1h
  secretStoreRef:
    name: gcp-sm-store
    kind: SecretStore
  target:
    name: containers-pull-secret        # Name of the Kubernetes Secret to create
    creationPolicy: Owner
    template:
      type: kubernetes.io/dockerconfigjson
      data:
        # "dockerconfig" is the logical key we use inside the template
        .dockerconfigjson: "{{ .dockerconfig | toString }}"
  data:
    - secretKey: dockerconfig     # This name is used in the template above
      remoteRef:
        key: ikoplus-eso-gcp      # The secret ID in Google Secret Manager
kubectl apply -f externalsecret.yaml --kubeconfig ikoplus-eso.kubeconfig

Using the external-secrets-operator plugin for Headlamp, you can see our Custom resources for ESO created.

Attestation

Lets deploy the IKO Helm Chart with the updated values for the image pull secret... this should point to the standard Kubernetes secret we created, which resolves to an external secret in Google Cloud Platform.
 

## Optionally specify an array of imagePullSecrets.
## Secrets must be manually created in the namespace.
## ref: https://kubernetes.io/docs/concepts/containers/images/#specifying-imagepullsecrets-on-a-pod
##
imagePullSecrets:
  - name: containers-pull-secret    #### actually from external-containers-pull-secret
## Specify a imagePullPolicy
## ref: http://kubernetes.io/docs/user-guide/images/#pre-pulling-images
##

 
Successful Pull!! Uses containers-pull-secret which is actually external-containers-pull-secret in Google Cloud Platform Secrets Manager!

 

External Secrets Operator is an OpenCollective org, give them a look for your IrisCluster workloads.

🎉

Now you have somehwere to stash that password hash!

讨论 (0)1
登录或注册以继续
公告
· 19 hr 前

[Vídeo] Arquitetando para o Sucesso com Espelhamento (Mirroring)

Olá, Comunidade!

Você busca maneiras de fortalecer a implementação da sua plataforma de dados InterSystems IRIS®? Veja como o espelhamento pode ajudar:

Arquitetando para o Sucesso com Espelhamento

Neste vídeo, você aprenderá estratégias para configurar o espelhamento que atendam às necessidades da sua empresa, considerando os custos. Explore as melhores práticas para planejar, testar e proteger sua configuração, para que você possa manter a alta disponibilidade mesmo durante falhas.

讨论 (0)1
登录或注册以继续