查找

文章
· 十月 30 阅读大约需 3 分钟

Consejos para manejar grandes volúmenes de datos

Hola comunidad,

Quería compartir mi experiencia trabajando en proyectos con grandes volúmenes de datos. A lo largo de los años, he tenido la oportunidad de manejar enormes cantidades de datos de pacientes, datos de aseguradoras y registros transaccionales mientras trabajaba en la industria hospitalaria. He tenido la oportunidad de crear informes muy extensos que requerían usar lógicas avanzadas para obtener datos de múltiples tablas, cuyos índices no me ayudaban a escribir un código eficiente.

Esto es lo que he aprendido sobre cómo gestionar grandes volúmenes de datos de manera eficiente.

Elegir el método de acceso a datos adecuado

Como todos sabemos en esta comunidad, IRIS ofrece múltiples formas de acceder a los datos. Elegir el método correcto dependerá de lo que necesitemos.

  • Acceso directo a los Globales: el más rápido para operaciones masivas de lectura/escritura. Por ejemplo, si tengo que recorrer índices y obtener datos de pacientes, puedo iterar sobre los globales para procesar millones de registros. Esto ahorra mucho tiempo.
Set ToDate=+H
Set FromDate=+$H-1 For  Set FromDate=$O(^PatientD("Date",FromDate)) Quit:FromDate>ToDate  Do
. Set PatId="" For  Set PatId=$Order(^PatientD("Date",FromDate,PatID)) Quit:PatId=""  Do
. . Write $Get(^PatientD("Date",FromDate,PatID)),!
  • Uso de SQL: útil para requisitos de generación de informes o análisis, aunque más lento para conjuntos de datos muy grandes.

Optimización de operaciones masivas

Procesar millones de registros uno por uno es lento y pesado. Para optimizar, he comprobado que guardar en lotes, usar globales temporales para los pasos intermedios y dividir los trabajos grandes en tareas más pequeñas marca una gran diferencia. Desactivar los índices no esenciales durante las inserciones masivas también acelera el proceso.

Uso de Streams

Para textos largos o cargas en formato XML o JSON, los objetos Stream evitan la sobrecarga de memoria. Trabajar con archivos muy grandes puede consumir mucha memoria si se cargan de una sola vez. Prefiero usar objetos Stream para leer o escribir los datos por partes. Esto mantiene el proceso rápido y eficiente.

Set stream = ##class(%Stream.GlobalCharacter).%New()
Do stream.CopyFromFile("C:\Desktop\HUGEDATA.json")
w "Size: "_stream.Size(),!

Esta será una forma sencilla de manejar los datos de manera segura sin ralentizar el sistema.

Así que eso es todo. Manejar grandes volúmenes de datos no se trata solo de hacer las cosas más rápidas, sino de elegir la forma correcta de acceder, almacenar y mantener el sistema equilibrado de manera inteligente.

Desde la migración de millones de registros de pacientes hasta la creación de API que gestionan conjuntos de datos bastante grandes, estos enfoques han marcado una verdadera diferencia en el rendimiento y la capacidad de mantenimiento.

Si estás trabajando con conceptos similares y quieres intercambiar ideas, no dudes en ponerte en contacto con la autora original de este artículo, @Harshitha

 

¡Muchas gracias!

讨论 (0)1
登录或注册以继续
问题
· 十月 30

Namoh Packers and Movers

Namoh Packers and Movers is an ISO 9001:2015 certified company. It is one of the most trusted packers and movers in Jabalpur and Central India, delivering safe, reliable, and affordable relocation services for households, offices, vehicles, and storage solutions. With over a decade of expertise, we have helped thousands of families and businesses move seamlessly, making us a preferred relocation partner in the region.

With years of expertise, our skilled team provides custom clearing, warehousing, shifting, and relocation services at highly affordable prices across India. We are actively serving not only Jabalpur but also several major cities, making us one of the most trusted packers and movers in Satna, packers and movers in Balaghat and packers and movers in Bhopal.

Why Choose Namoh Packers and Movers?

• Decade-long experience in the relocation industry.

• Local, domestic, and corporate relocation expertise.

• Trained manpower, modern equipment & safe packing methods.

• Insurance coverage and tracking for peace of mind.

• Affordable, competitive pricing with no compromise on quality.

讨论 (0)1
登录或注册以继续
文章
· 十月 30 阅读大约需 7 分钟

IRIS環境でのPythonプログラミング入門

img

この記事では、IRIS環境におけるPythonプログラミングの基礎について紹介します。

本題に入る前に、重要なトピックである「Pythonの仕組み」について説明します。これは、IRIS環境でPythonを使用して作業する際に起こりうる問題や制限を理解するのに役立ちます。

すべての記事と例は、以下のgitリポジトリで確認できます: iris-python-article

Pythonの仕組み

インタープリター型言語

Pythonはインタープリター型言語であり、コードはランタイム時に1行ずつ実行されます。スクリプトをインポートする場合でも同様です。

これはどういうことでしょうか? 以下のコードを見てみましょう。

讨论 (0)1
登录或注册以继续
公告
· 十月 29

一个学习和探索 InterSystems 技术的新渠道:InterSystems Community GitHub

Hi 大家好!来推荐一个学习的新途径!

除了InterSystems Open Exchange 应用程序库,InterSystems Community GitHub 还提供使用 InterSystems 技术构建的示例、库和演示。

InterSystems Community GitHub (github.com/intersystems-community)

它包括

  • 示例应用程序和模板
  • 库和连接器
  • 实验项目和演示

这些代码库并未得到 InterSystems 公司的官方支持,但对于学习和探索 InterSystems 技术非常有用。

欢迎您探索这些资源库,并将它们作为您自己项目的参考。

讨论 (0)1
登录或注册以继续
讨论 (0)1
登录或注册以继续