Facultad Regional Córdoba

Permanent URI for this communityhttp://48.217.138.120/handle/20.500.12272/94

Browse

Search Results

Now showing 1 - 9 of 9
  • Thumbnail Image
    Item
    Unidad nº 13: Costos de la calidad
    (Universidad Tecnológica Nacional. Facultad Regional Córdoba, 2016) Odello, Dardo Gustavo
    Todas las organizaciones identifican los costos involucrados en las actividades que hacen posible su funcionamiento. Hasta el año 1950 este concepto no consideraba la calidad, excepto en lo referente a las actividades de inspección y ensayos. Había, por supuesto, muchos otros costos relacionados con la calidad pero éstos eran repartidos dentro de otras cuentas, en especial la de "Gastos Generales". La primera mención de los aspectos económicos de la calidad aparece en el Manual de control de calidad, de J. M. Juran, en el capítulo: "Los aspectos económicos de la calidad". Siempre que se inicia la actividad de una empresa, para fabricar productos o producir servicios, fija como objetivos prioritarios dos cosas fundamentales:  Ganar dinero con esa actividad económica.  Tener clientes satisfechos para que el balance calidad-precio resulte atractivo para el comprador, con lo que este comprador eventual se convierte en un cliente fiel y permanente. Uno de los sistemas más eficaces para poder determinar este balance de calida-precio es aplicar Análisis de Costos de la Calidad. A lo largo de décadas de estudio comenzaron a aparecer algunas sorpresas.  Los costos relacionados con la calidad eran mucho mayores que lo que mostraban los informes contables. Para la mayoría de las empresas estos costos estaban entre el 20% y el 40% de las ventas.  Los costos de la No calidad no eran solo el resultado de las operaciones en la planta, las operaciones administrativas eran también grandes contribuyentes.  Muchos de los costos de la No calidad estaban incluidos dentro de los estándares de desempeño.  A pesar de que los costos de la No calidad eran evitables, no había clara responsabilidades asignadas para accionar sobre ellos. Tampoco había un enfoque estructurado para hacerlo. El desarrollo y la aplicación del análisis de costos de la calidad nos lleva a la conclusión de que debemos tratar de buscar la calidad a costos racionales y asumibles, porque no se trata sólo de eliminar los despilfarras, sino de eliminar aquellas mejoras de calidad que no agregan valor al producto y que por lo tanto, van a pasar desapercibidas por el cliente. Los costos de la calidad se consideran actualmente como una valiosa guía para la Dirección de las Empresas, para la mejor utilización de los recursos disponibles. Su implantación constituye un plan de mejora de la empresa, y como tal, debe ser liderado por la dirección de la empresa. Sin esta premisa, las posibilidades de éxito se verán reducidas o nulas.
  • Thumbnail Image
    Item
    Unidad nº 12 - Control estadístico de procesos
    (Universidad Tecnológica Nacional. Facultad Regional Córdoba, 2012) Odello, Dardo Gustavo
    Planificación de la fabricación. Tecnología estadística del control de la calidad. Capacidad de procesos productivos. Control estadístico de procesos, técnicas. Análisis y utilización de los gráficos de control. Informatización de los métodos.Aceptación de lotes por muestreo. Verificación de lotes por atributos. Verificación de lotes por variable. Normalización de la aceptación de lotes por muestreo. Técnicas especiales de muestreo. Informatización del análisis y recolección de datos.
  • Thumbnail Image
    Item
    Unidad nº 18 - Herramientas de la Calidad
    (Universidad Tecnológica Nacional. Facultad Regional Córdoba, 2012) Castello, Jorge Carlos; Odello, Dardo Gustavo
    Las siete herramientas de la calidad, clasificación, aplicaciones. Las nueva siete herramientas para la gestión de la calidad, clasificación, aplicaciones. Herramientas específicas : Círculos de calidad ; Diseño de experimentos ; Hoshin ; 8D ; Q.F.D.; F.M.E.A.
  • Thumbnail Image
    Item
    Unidad nº 6 - Errores de forma microgeométricos
    (Universidad Tecnológica Nacional. Facultad Regional Córdoba, 2021) Castello, Jorge Carlos
    Estudio geométrico de las superficies. Definiciones. Rugosidad superficial, definiciones, clasificación. Parámetros característicos de la rugosidad. Parámetros de amplitud, clasificación. Parámetros de frecuencia, clasificación. Parámetros híbridos, clasificación. Parámetros de verificación de la ondulación superficial. Símbolos gráficos para la indicación del estado de la superficie. Verificación del estado superficial, métodos, instrumentos utilizados. Normalización pertinente.
  • Thumbnail Image
    Item
    Unidad nº 7 - Mediciones Angulares
    (Universidad Tecnológica Nacional. Facultad Regional Córdoba, 2012) Odello, Dardo Gustavo
    Medición de ángulos, clasificación. Medición directa, goniómetros, divisor óptico. Mediciones indirectas, métodos de medición indirecta, mediciones trigonométricas, regla de senos, niveles, mediciones por comparación con patrones angulares. Verificación de superficies cónicas, generalidades. Características a verificar, rectitud de las generatrices, circularidad de las secciones, ángulo, dimensiones. Métodos. Instrumentos utilizados.
  • Thumbnail Image
    Item
    Unidad nº 5 - Errores de Forma y Posición
    (Universidad Tecnológica Nacional. Facultad Regional Córdoba, 2016) Castello, Jorge Carlos
    Definiciones generales. Error de forma macrogeométrico, clasificación. Error de posición, clasificación. Indicaciones del error de forma y posición en el diseño. Definiciones particulares de las tolerancias de los errores de forma, representación gráfica. Definiciones particulares de las tolerancias de los errores de posición, representación gráfica. Normalización pertinente. Verificación de la planitud. Métodos de comprobación : con regla de rectitud, con niveles, con autocolimador, por medio de cristales planos e interferencia de luz. Ventajas y aplicaciones de cada método. Verificación de la circularidad, generalidades. Medición de la circularidad con instrumentos simples, errores. Equipos específicos para medición de circularidad, principios de funcionamiento, tipos, principales componentes. Interpretación de los resultados. Verificación de la perpendicularidad. Escuadras, tipos, modo de empleo. Verificadores de perpendicularidad.
  • Thumbnail Image
    Item
    Unidad nº 2 - Competencia técnica de laboratorios de ensayo y calibración
    (Universidad Tecnológica Nacional. Facultad Regional Córdoba, 2023) Farchetto, Sergio Julián
    Cada día el número de laboratorios certificados con la NormaISO/IEC 17025 va en aumento. Los laboratorios de ensayos y calibración deben ser competentes y capaces de generar resultados analíticos confiables y que técnicamente cumplan con todos los requisitos que dice esta Norma.Se logran acreditar laboratorios mediante la implementación de la Norma ISO/IEC 17025. Este escrito tiene como objetivo desarrollar los tópicos a tener en cuenta para implementación de la Norma ISO/IEC 17025 con base en un sistema de gestión de calidad mostrando los pasos a seguir para facilitar su aplicación destacando: el diagnóstico,recolección de datos necesarios y comparación con los requisitos de la Norma ISO/IEC 17025. Al trabajar bajo los estándares de esta Norma se reconoce su competencia técnica y la validez de sus resultados. El objetivo principal de la Norma es garantizar la competencia técnica y la fiabilidad de los resultados. Al haber resultados variables, estadísticamente provocan variabilidad y al ser variables no son confiables. El cliente espera confiar en los resultados informados y generalmente cuestiona, cuando aparece un conflicto provocando reclamos, quejas de los usuarios. El personal técnico debe demostrar que ha informado los resultados correctos; la validación del método permite demostrar que es el adecuado.
  • Thumbnail Image
    Item
    Unidad nº 2 - Instrumentos de medición
    (Universidad Tecnológica Nacional. Facultad Regional Córdoba, 2001) Castello, Jorge Carlos
    Clasificación. Patrón de medida, clasificación, método patrón. Elementos constitutivos de los instrumentos de medición. Características de un instrumento de medición. Ajuste de un instrumento. Calibración, confirmación metrológica, trazabilidad de las mediciones. Gestión de los instrumentos. Aptitud de los Sistemas de Medición, variabilidad de los sistemas de medición (R & R). Sala de metrología. lnstrumentos de medición de mayor uso : Bloques patrón, Calibre de cursor, Micrómetro de tornillo, Comparadores de cuadrante, Goniómetro, Reglas de senos. Normalización periinente.
  • Thumbnail Image
    Item
    Estrategia de recomendación por similitud semántica en repositorios con grande volúmenes de datos de medición y evaluación
    (2023) Sánchez Reynoso, María Laura; Diván, Mario
    La medición es una actividad común a diversas disciplinas, lo que permite determinar el estado actual de un concepto bajo estudio. La evaluación consiste en interpretar los valores medidos a la luz de ciertos criterios para poder concluir (o estimar) sobre su estado. Por tal, el hecho de poder definir proyectos de medición y evaluación es común a diferentes disciplinas, con las particularidades de cada campo de aplicación. Diversas alternativas se han propuesto para medir en forma remota diferentes conceptos, desarrollando actividades de telemetría sobre ordenadores de placa única (en inglés, Single Board Computers -SBC). El bajo costo y disponibilidad de sensores relacionado con el Internet de las Cosas (IoC) ha permitido masificar la automatización de procesos de medición con una aceptable relación costo-beneficio. Sin embargo, IoC se caracteriza por la heterogeneidad de las fuentes de datos, y el solo hecho de obtener un valor desde un sensor no aporta demasiado, salvo que exista una lógica embebida en una aplicación o lo interprete una persona con conocimiento en particular. Por tal, los “framework” de medición y evaluación basados en ontologías permiten incorporar conocimiento específico de los conceptos medidos, sus características, cómo cuantificarlas e interpretarlas. En este sentido, el “framework” C-INCAMI (en inglés Context - Information Need, Concepts, Attributes, Metrics, and Indicators) es un marco conceptual con una ontología subyacente, la cual define los conceptos, términos y relaciones necesarias para especificar un proceso de medición y evaluación (M&E). De este modo y mediante su utilización, se logra un entendimiento común sobre el concepto de lo que representa una entidad, su caracterización a través de atributos, la cuantificación de atributos mediante métricas y la interpretación de los atributos a través de indicadores con su correspondiente criterio de decisión asociados. La ontología de CINCAMI fue extendida para incorporar la posibilidad de discriminar estados de entidad y escenarios, para extender la definición de los criterios de decisión y su interpretación en función del contexto. De este modo, la estrategia de procesamiento del flujo de datos, es capaz de soportar definiciones de escenarios, análisis de las transiciones en conjunto con la posibilidad de ajustar los criterios de decisión de cada indicador a cada escenario en particular. Basado en la ontología extendida, se extendió la estrategia GOCAME (Goal - Oriented Context-aware Measurement and Evaluation) derivando en GOCAME -ESVI (Gocame-Entity States, Scenarios, and Visualization Guidelines). La misma permite definir consistentemente un proyecto de medición, especificándolo en un archivo auto contenido, factible de ser intercambiado entre diferentes SBC para su interpretación y emparejamiento con los sensores. Un componente software denominado adaptador de mediciones (localizado en SBC o dispositivos móviles) es responsable de emparejar la definición de proyectos con los sensores. De este modo, cada sensor tiene asociación con una métrica directa en el proyecto, y por ende sus medidas serán procesadas en consecuencia. Al momento de procesar e interpretar las medidas de múltiples métricas guiado por sus metadatos (ejemplo, el ID de cada una), un índice de similitud compuesto permite identificar recomendaciones similares, incluso cuando el proyecto no las posea. Basado en la ontología C-INCAMI extendida, se propuso un índice que evalúa la similitud estructural y comportamental de entidades bajo monitoreo y su contexto a partir de la definición del proyecto de medición y su flujo de medidas. Esto permite proveer recomendaciones ante situaciones similares a la actual aun cuando no se cuente con conocimiento específico. Un esquema de interpretación basado en criterios de decisión soportado por escenario y estados de entidad, es autocontenido en BriefPD. Dado que las fuentes de datos son distribuidas por naturaleza, se planteó una articulación basada en microservicios y arquitectura blockchain para soportar transmisiones indirectas y recomendaciones in-situ. Complementariamente, se aprovecha la extensión de la ontología de medición para incorporar controles de integridad de datos basados en Merkle Tree a los efectos de poder determinar el origen de los mismos (sin necesidad de que dispositivos de capacidades limitadas deban almacenar los datos transmitidos). De este modo, se ha logrado integrar en la Arquitectura de Procesamiento basada en Metadatos de Mediciones (en inglés Processing Architecture based on Measurement Metadata - PAbMM), desde la captación de los datos hasta el esquema de recomendación. PAbMM es un motor de procesamiento de flujos de mediciones basada en topologías de Apache Storm, que está especializada en el monitoreo de entidades (físicas o no) en proyectos de medición y evaluación basados en C-INCAMI extendido. Aquí se ha extendido la ontología original (por ejemplo, incorporando escenarios y estados de entidad) y por ende actualizado la arquitectura en consecuencia. Así, aquí se introduce una estrategia que permite brindar recomendaciones en tiempo real ante situaciones tipificadas basado en los criterios de decisión de los indicadores y en las entidades monitoreadas