miércoles, 18 de mayo de 2011

DISEÑO DE PRODUCCION

ANTECEDENTES HISTÓRICOS  

Nadie puede decir cuando comenzó el hombre a estudiar la producción. Si nos basamos en pruebas escritas, la fecha debe establecerse ya bien avanzada la historia, pero seguramente algunos de los primeros “directores” ponderaron mejores formas de producir ruedas rudimentarias, utensilios y ladrillos. Quizá los egipcios tenían su propia versión del PERT.  
En busca de la evidencia documental, debemos pasar por alto las maravillosas construcciones del Imperio Romano, las obras maestras del arte de la Edad Media, así como el desarrollo de los oficios en los gremios de esa época. Durante este último periodo, la producción se caracterizó por la actividad individual y el uso de la energía muscular en lugar de la mecánica. 
En los años 1700 las condiciones cambiaron rápidamente con el empleo de la energía suministrada por el vapor, la cual reemplazó a la muscular; el invento de máquinas y herramientas que realizaban gran parte trabajo manual y un sistema de fabricación que hacía hincapié en la intercambiabilidad de las piezas manufacturadas. Tales fueron los inicios de la revolución industrial y de muchos dolores de cabeza que aún aquejan en la dirección moderna.  
Al principio del siglo XIX las condiciones prevalecientes en una fábrica cualquiera eran deprimentes en comparación con las normas actuales. Las actitudes de la dirección eran tratar a los hombres como si fueran máquinas, implantar las políticas de reducción de costos por medio de la fuerza bruta. A pesar de esta falta de conciencia social, los conceptos sobre la producción incluyeron ideas tan avanzadas como la disposición de la planta en departamentos, la división de la mano de obra para el entrenamiento y el estudio de trabajo, un flujo más ordenado de los materiales, procedimientos mejorados para el registro de costos y planes de incentivo en los salarios.  
Debido a los diversos acontecimientos ocurridos a principios del siglo XX, se afianzaron los fundamentos de los estudios sobre la producción al hacerse más compatibles con las actitudes mecanicistas de las ciencias físicas. Los experimentos significativos que llevó a cabo Frederick W. Taylor, eran característico de nuevo enfoque “científico”. Él dirigió y analizó miles de pruebas para identificar las variables relativas a la producción. A partir de estas observaciones empíricas, diseñó métodos de trabajo en donde el hombre y la máquina eran una unidad, una unidad operante compuesta por un hombre inspirado por el incentivo del salario del para dar servicio eficientemente a una máquina, de acuerdo con instrucciones exactas. Estableció la diferencia entre la planeación de las actividades y su implementación y la ubicó en el área de la dirección profesional. Los críticos pronosticaron que los puntos de vista mecanicistas, apoyados por los expertos en eficiencia, deshumanizarían completamente la industria, pero otros lo consideraron como la lógica aplicada a una nueva área comprometedora.  
Henry L. Gantt. Desarrolló método para establecer la secuencia de las actividades de la producción, los cuales aun se emplean. Con su tratamiento menos restringido de las operaciones hombre-máquina y los conceptos atractivos de organización y motivación a la teoría inicial de Taylor. 
El pensamiento orientado hacia las operaciones tomó nuevo vigor de la unión de la ingeniería y la psicología –unión que se logró tanto en el sentido literal como figurado, gracias al trabajo en equipo de los esposos Frank y Lillian Gilbreth. Juntos    mostraron que los patrones de movimiento humano básico son comunes  a muchas situaciones de trabajo diferentes. Su análisis de los micros movimientos para mejorar las operaciones manuales iniciaron los estudios de tiempos y movimientos y el empleo de películas en el diseño del trabajo. 
Los años 40 también presenciaron el nacimiento de la computadora electrónica. En la actualidad su influencia es clara en toda la industria. Muchos empleados de oficina temen que traiga una segunda revolución industrial que, otra vez, les afectará a ellos.  
A fin de esclarecer algunas nociones confusas acerca de la computadora conviene concentrase en lo que se ha logrado y en lo que queda por hacer. Por supuesto, debe lograse que los problemas sean “programables”, es decir, estructuralmente adaptables a los cálculos de la máquina. En ello estriba la función que le toca al hombre en  la moderna sociedad hombre - máquina.  
SISTEMAS DE PRODUCCIÓN. 
Para nuestros estudios diremos que la producción es el acto intencional de producir algo útil. De ninguna manera limita el método por el cual algo se produce, pero elimina la generación accidental de productos. La definición de producción se modifica para incluir el concepto de sistema, diciendo que un sistema de producción es el proceso específico por miedo del cual los elementos se transforman en productos útiles. Un proceso es un procedimiento organizado para lograr la conversión de insumos en resultados.
Una unidad de producción normalmente requiere de varios tipos de insumos. En un proceso industrial los insumos dan cuenta de la mayor parte del costo variable de producción. Los medios de conversión están asociados con el costo fijo, y la producción con los ingresos. La utilidad depende de la relación de los costos variables y fijos, con respecto a los ingresos, es decir, de la interacción de costos de insumo y de conversión con los ingresos obtenidos a base de la producción.  
Cualquier sistema es una colección de componentes interactúales; el objetivo de un sistema podría ser producir un componente que se va a ensamblar con otros componentes para alcanzar el objetivo que es un sistema mayor.  
MODELOS DE SISTEMAS DE PRODUCCIÓN. 
Un modelo es una réplica o abstracción de las características esenciales de un proceso. Muestra las relaciones entre causa y efecto, entre objetivos y restricciones. Problemas que no se pueden resolver por medio de soluciones directas debido a su magnitud, complejidad o estructura, a menudo se pueden manejar, buscando una solución aproximada por medio de modelos de simulación.  
¿QUE VENTAJAS TIENEN DISEÑAR LOS SISTEMAS DE PRODUCCIÓN? 
  • El  diseño de sistemas de producción es algo esencial en la empresa, ya que maneja todos los departamentos de esta, así llevando un control de costos, control de inventarios, control de la producción, control de procesos, control de calidad.  
  • Los diseños de producción deben utilizarse siempre, es decir, no solamente  durante la implementación de los mismos, para luego destacarlos, ni archivarse en un estante para que acumulen polvo y se vuelvan obsoletos. Los costos del proceso de reingeniería son demasiado altos y los diseños demasiado valiosos.  
  • Los diseños y los modelos de reingeniería se utilizan obviamente para respaldar los esfuerzos  futuros en este campo. Si se implementa una iniciativa  de calidad total, la compañía necesitara cambiar sus procesos sobre una base común cuando las mejoras se implanten. Como una medida de control, estas actividades deben desarrollarse siguiendo los métodos de reingeniería y toda la documentación debe actualizarse.  
  • Los diseños contienen información que puede ser útil en la toma de decisiones operacionales habituales, en el entrenamiento y en el control del desempeño laboral.  
¿QUE VISIÓN DEL FUTURO LES DA A LAS EMPRESAS LOS DISEÑOS DE SISTEMAS DE PRODUCCIÓN?
  • Le da la habilidad  de que entrar al mercado junto con otras compañías.
  • Habilidad de los proveedores para ejercer una presión sobre los costos de los competidores el mercado.
  • La habilidad  de los clientes para influir en los competidores, por ejemplo, si son sensibles a los precios, los clientes forzaran la competencia precios.
  • La habilidad de las alternativas para presionar al mercado.
  • Las actividades competitivas de las compañías más rivales.

CONTROL DE CALIDAD

La historia de la humanidad está directamente ligada con la calidad desde los tiempos más remotos, el hombre al construir sus armas, elaborar sus alimentos y fabricar su vestido observa las características del producto y enseguida procura mejorarlo.
La práctica de la verificación de la calidad se remonta a épocas anteriores al nacimiento de Cristo. En el año 2150 A.C., la calidad en la construcción de casas estaba regida por el Código de Hammurabi, cuya regla # 229 establecía que "si un constructor construye una casa y no lo hace con buena resistencia y la casa se derrumba y mata a los ocupantes, el constructor debe ser ejecutado". Los fenicios también utilizaban un programa de acción correctiva para asegurar la calidad, con el objeto de eliminar la repetición de errores. Los inspectores simplemente cortaban la mano de la persona responsable de la calidad insatisfactoria. En los vestigios de las antiguas culturas también se hace presente la calidad, ejemplo de ello son las pirámides Egipcias, los frisos de los templos griegos, etc.
Durante la edad media surgen mercados con base en el prestigio de la calidad de los productos, se popularizó la costumbre de ponerles marca y con esta práctica se desarrolló el interés de mantener una buena reputación (las sedas de damasco, la porcelana china, etc.) Dado lo artesanal del proceso, la inspección del producto terminado es responsabilidad del productor que es el mismo artesano. Con el advenimiento de la era industrial esta situación cambió, el taller cedió su lugar a la fábrica de producción masiva, bien fuera de artículos terminados o bien de piezas que iban a ser ensambladas en una etapa posterior de producción. La era de la revolución industrial, trajo consigo el sistema de fábricas para el trabajo en serie y la especialización del trabajo. Como consecuencia de la alta demanda aparejada con el espíritu de mejorar la calidad de los procesos, la función de inspección llega a formar parte vital del proceso productivo y es realizada por el mismo operario (el objeto de la inspección simplemente señalaba los productos que no se ajustaban a los estándares deseados.)
A fines del siglo XIX y durante las tres primeras décadas del siglo XX el objetivo es producción. Con las aportaciones de Taylor, la función de inspección se separa de la producción; los productos se caracterizan por sus partes o componentes intercambiables, el mercado se vuelve más exigente y todo converge a producir. El cambio en el proceso de producción trajo consigo cambios en la organización de la empresa. Como ya no era el caso de un operario que se dedicara a la elaboración de un artículo, fue necesario introducir en las fábricas procedimientos específicos para atender la calidad de los productos fabricados en forma masiva. Durante la primera guerra mundial, los sistemas de fabricación fueron más complicados, implicando el control de gran número de trabajadores por uno de los capataces de producción; como resultado, aparecieron los primeros inspectores de tiempo completo la cual se denominó como control de calidad por inspección.
Las necesidades de la enorme producción en masa requeridas por la segunda guerra mundial originaron el control estadístico de calidad, esta fue una fase de extensión de la inspección y el logro de una mayor eficiencia en las organizaciones de inspección. A los inspectores se les dio herramientas con implementos estadísticos, tales como muestreo y gráficas de control. Esto fue la contribución más significativa, sin embargo este trabajo permaneció restringido a las áreas de producción y su crecimiento fue relativamente lento. Las recomendaciones resultantes de las técnicas estadísticas, con frecuencia no podían ser manejadas en las estructuras de toma de decisiones y no abarcaban problemas de calidad  verdaderamente grandes como se les prestaban a la  gerencia del negocio.
Esta necesidad llevó al control total de la calidad. Solo cuando las empresas empezaron a establecer una estructura operativa y de toma de decisiones para la calidad del producto que fuera lo  suficiente eficaz como para tomar acciones adecuadas en los descubrimientos del control de calidad, pudieron obtener resultados tangibles como mejor calidad y menores costos. Este marco de calidad total hizo posible revisar las decisiones regularmente, en lugar de ocasionalmente, analizar resultados durante el proceso y tomar la acción de control en la fuente de manufactura o de abastecimientos, y, finalmente, detener la producción cuando fuera necesario. Además, proporcionó la estructura en la que las primeras herramientas del control (estadísticas de calidad) pudieron ser reunidas con las otras muchas técnicas adicionales como medición, confiabilidad, equipo de información de la calidad, motivación para la calidad, y otras numerosas técnicas relacionadas ahora con el campo del control moderno de calidad y con el marco general funcional de calidad de un negocio.
 CONCEPTO DE CALIDAD
 La calidad es un concepto que ha ido variando con los años  y que existe una gran variedad de formas de concebirla  en las empresas, a continuación se detallan algunas de las definiciones que comúnmente son utilizadas en la actualidad.
LA CALIDAD ES:
  • Satisfacer plenamente las necesidades del cliente.
  • Cumplir las expectativas del cliente y algunas más.
  • Despertar nuevas necesidades del cliente.
  • Lograr productos y servicios con cero defectos.
  • Hacer bien las cosas desde la primera vez.
  • Diseñar, producir y entregar un producto de satisfacción total.
  • Producir un artículo o un servicio de acuerdo a las normas establecidas.
  • Dar respuesta inmediata a las solicitudes de los clientes.
  • Sonreír a pesar de las adversidades.
  • Una categoría tendiente siempre a la excelencia.
  • Calidad no es un problema, es una solución.
EL CONCEPTO DE CALIDAD SEGÚN:
Edwards Deming: "la calidad no es otra cosa más que "Una serie de cuestionamiento hacia una mejora continua".
Dr. J. Juran: la calidad es "La adecuación para el uso satisfaciendo las necesidades del cliente".
 Kaoru Ishikawa: define a la calidad como "Desarrollar, diseñar, manufacturar y mantener un producto de calidad que sea el más económico, el útil y siempre satisfactorio para el consumidor".
Rafael Picolo, Director General de Hewlett Packard: define "La calidad, no como un concepto aislado, ni que se logra de un día para otro, descansa en fuertes valores que se presentan en el medio ambiente, así como en  otros que se adquieren con esfuerzos y disciplina".
Con lo anterior se puede concluir que la calidad se define como "Un proceso de mejoramiento continuo, en donde todas las áreas de la empresa participan activamente en el desarrollo de productos y servicios, que satisfagan las necesidades del cliente, logrando con ello mayor productividad".

SEGURIDAD INDUSTRIAL

La Seguridad Industrial es una realidad compleja, que abarca desde problemática estrictamente técnica hasta diversos tipos de efectos humanos y sociales. A la vez, debe ser una disciplina de estudio en la que se han de formar los especialistas apropiados, aunque su naturaleza no corresponde a las asignaturas académicas clásicas, sino a un tipo de disciplina de corte profesional, aplicado y con interrelaciones legales muy significativas. 
La propia complejidad de la Seguridad Industrial aconseja su clasificación o estructuración sistemática. En eso, no se hace sino seguir la pauta común del conocimiento humano, que tiende a subdividir las áreas del saber con objeto de hacerlas más asequibles, no sólo a su estudio, sino también a su aplicación profesional.  
Aún cuando se recomienda el estudio por áreas o divisiones, no cabe olvidar el carácter unitario de la Seguridad Industrial. Cuando una ciencia se parcela en exceso, puede perderse una gran parte de la perspectiva. Suele decirse que los árboles no dejan ver el bosque. En este sentido, hay que subrayar que en los estudios de la Seguridad hay que conservar este carácter unitario de sus principios, tendente a impedir que las explotaciones industriales produzcan efectos inaceptables en las personas, los bienes o el medio ambiente.  
La seguridad, como tantos otros conceptos genéricos, tiene una acepción amplia y no exenta de subjetividad. Seguro e inseguro son adjetivos que aplicamos con relativa ligereza a situaciones de la vida, sin que necesariamente nuestra apreciación responda a un análisis riguroso de aquello que juzgamos. De hecho, tal análisis es a menudo imposible de efectuar porque en él concurren circunstancias no gobernadas por leyes físicas, sino por la decisión de personas. Esa es en general una importante causa de subjetividad e incertidumbre. La otra lo es la propia naturaleza, a través de sus agentes meteorológicos, sismotectónicos y demás. Es obvio que el factor humano y el elemento natural van a estar siempre presentes en todas las actividades, incluidas las industriales, pero en éstas cabe reducir la incertidumbre propiamente industrial hasta límites muy bajos, acordes con los principios de protección que deben inspirar la Seguridad Industrial como técnica.  
En la evolución histórica del desarrollo industrial suelen distinguirse tres fases que pueden caracterizarse por los conceptos primordiales o más significativos de cada una de ellas.  
La primera fase, propia de los albores de la revolución industrial, estuvo fuertemente marcada por el concepto de productividad, al cual se relegaban otros objetivos, pues resultaba primordial asegurar que los nuevos procesos de producción tuvieran capacidad suficiente para rentabilizar las inversiones requeridas. Es una fase que se dio sobre todo en los países de más temprana industrialización, pero que también se aprecia en los países de incorporación más tardía a la revolución industrial, en los cuales se hubo de hacer un primer esfuerzo para asimilar tecnología y hacerla productiva, por encima de otras consideraciones.  
En una segunda etapa, el concepto de seguridad adquiere la mayor relevancia, en su doble vertiente de seguridad interna en la fabricación o en los procesos industriales, y seguridad externa en el uso de los productos o los servicios industriales. Tan pronto se dominaron las técnicas fundamentales de la industrialización en los diversos países, y según su historia particular de desarrollo, se produjo cierto realineamiento de objetivos, en los cuales la seguridad aparece como característica a cumplir necesariamente, aunque no de manera maximalista. Bien es cierto que en esta segunda fase  el concepto de productividad siguió siendo imprescindible, y de hecho las fases de la industrialización se suceden precisamente porque se van asumiendo y madurando los objetivos de las etapas previas. El concepto de seguridad aparece ligado a lo que podríamos denominar requisitos imprescindibles, que dependen del estado del arte. 
Aunque la industria haya de seguir satisfaciendo los criterios de rentabilidad económica para los cuales es necesaria la productividad, su optimización no puede en ningún caso contrariar los requisitos esenciales de seguridad.  
En la tercera fase, que podríamos considerar se inicia en el mundo industrializado después de la Segunda Guerra Mundial, cobra importancia decisiva el concepto de calidad, puesto que no basta con asegurar unos mínimos requisitos de seguridad, ni tampoco es suficiente maximizar la productividad a corto plazo o tácticamente, sino que hay que considerar la calidad como valor intrínseco y de carácter estratégico, tanto en relación con los procesos como por la calidad de los productos. 
Técnicas tales como la Garantía de Calidad, el Total Quality Management o el Aseguramiento de la Calidad, no son sino subfases evolutivas en el tratamiento de la calidad en el entorno industrial. La calidad va también asociada a la complejidad de ciertas industrias emergentes, que a partir de la Segunda Guerra Mundial cobran aún mayor importancia, como es el caso de la Aeronáutica, o bien aparecen a partir de ese momento, como es el caso de la Industria Nuclear.  
Aun cuando estas tres fases sean clásicas en los estudios sobre historia industrial, hay que reconocer que la preocupación por la seguridad, e incluso por lo que podríamos denominar seguridad industrial, es prácticamente tan antigua como la historia de la humanidad. Suele recurrirse al ejemplo del Código de Hamurabi para señalar esta preocupación, en ese caso concreto acerca de las edificaciones, pues este código exige que las edificaciones sean hechas con seguridad, e incluso prevé sanciones muy fuertes, típicas de la ley del Talión, contra los constructores cuyas edificaciones no se mantuvieran en pie y provocaran accidentes o muertes. No obstante esta referencia protohistórica, debemos decir que el concepto de seguridad industrial, tal como se entiende hoy día, aparece en la segunda fase de la revolución industrial, si bien cabe encontrar precedentes singulares de preocupaciones en el tema de la seguridad, como es el caso de algunas disposiciones de seguridad laboral en la minería en los tiempos de Felipe II. Ahora bien, ni los conocimientos científicos de ese momento, ni mucho menos su proyección tecnológica, permiten considerar este interesante precedente y otros similares de manera que podamos estudiarlos como ejemplos de seguridad industrial propiamente dicha.

INVESTIGACIÓN DE OPERACIONES

NATURALEZA DE LA INVESTIGACIÓN DE OPERACIONES

Como su nombre lo dice, la investigación de operaciones significa "hacer investigación sobre las operaciones". Entonces, la investigación de operaciones se aplica a problemas que se refieren a la conducción y coordinación de operaciones (o actividades) dentro de una organización. La naturaleza de la organización es esencialmente inmaterial y, de hecho, la investigación de operaciones se ha aplicado de manera extensa en áreas tan diversas como la manufactura, el transporte, la constitución, las telecomunicaciones, la planeación financiera, el cuidado de la salud, la milicia y los servicios públicos, por nombrar sólo unas cuantas. Así, la gama de aplicaciones es extraordinariamente amplia.
La parte de investigación en el nombre significa que la investigación de operaciones usa un enfoque similar a la manera en que se lleva a cabo la investigación en los campos científicos establecidos. En gran medida, se usa el método científico para investigar el problema en cuestión. (De hecho, en ocasiones se usa el término ciencias de la administración como sinónimo de investigación de operaciones.) En particular, el proceso comienza por la observación cuidadosa y la formulación del problema incluyendo la recolección de los datos pertinentes. El siguiente paso es la construcción de un modelo científico (por lo general matemático) que intenta abstraer la esencia del problema real. En este punto se propone la hipótesis de que el modelo es una representación lo suficientemente precisa de las características esenciales de la situación como para que las conclusiones (soluciones) obtenidas sean válidas también para el problema real. Después, se llevan a cabo los experimentos adecuados para probar esta hipótesis, modificarla si es necesario y eventualmente verificarla. (Con frecuencia este paso se conoce como validación del modelo.) Entonces, en cierto modo, la investigación e operaciones incluyen la investigación científica creativa de las propiedades fundamentales de las operaciones. Sin embargo, existe más que esto.
En particular, la IO se ocupa también de la administración práctica de la organización. Así, para tener éxito, deberá también proporcionar conclusiones claras que pueda usar el tomador de decisiones cuando las necesite.
 Una característica más de la investigación de operaciones es su amplio punto de vista. Como quedó implícito en la sección anterior, la IO adopta un punto de vista organizacional. de esta manera, intenta resolver los conflictos de intereses entre las componentes de la organización de forma que el resultado sea el mejor para la organización completa. Esto no significa que el estudio de cada problema deba considerar en forma explícita todos los aspectos de la organización sino que los objetivos que se buscan deben ser consistentes con los de toda ella.
 Una característica adicional es que la investigación de operaciones intenta encontrar una mejor solución, (llamada solución óptima) para el problema bajo consideración. (Decimos una mejor solución y no la mejor solución porque pueden existir muchas soluciones que empaten como la mejor.) En lugar de contentarse con mejorar el estado de las cosas, la meta es identificar el mejor curso de acción posible. Aun cuando debe interpretarse con todo cuidado en términos de las necesidades reales de la administración, esta "búsqueda de la optimizad" es un aspecto importante dentro de la investigación de operaciones.
Todas estas características llevan de una manera casi natural a otra. Es evidente que no puede esperarse que un solo individuo sea un experto en todos lo múltiples aspectos del trabajo de investigación de operaciones o de los problemas que se estudian; se requiere un grupo de individuos con diversos antecedentes y habilidades. Entonces, cuando se va a emprender un estudio de investigación de operaciones completo de un nuevo problema, por lo general es necesario emplear el empleo de equipo. Este debe incluir individuos con antecedentes firmes en matemáticas, estadística y teoría de probabilidades, al igual que en economía, administración de empresas, ciencias de la computación, ingeniería, ciencias físicas, ciencias del comportamiento y, por supuesto, en las técnicas especiales de investigación de operaciones.
IMPACTO DE LA INVESTIGACIÓN DE OPERACIONES
La investigación de operaciones ha tenido un impacto impresionante en el mejoramiento de la eficiencia de numerosas organizaciones en todo el mundo. En el proceso, la investigación de operaciones ha hecho contribuciones significativas al incremento de la productividad dentro de la economía de varios países. Hay ahora más de 30 países que son miembros de la International Federation of Operational Research Societies (IFORS), en la que cada país cuenta con una sociedad de investigación de operaciones.
Sin duda, el impacto de la investigación de operaciones continuará aumentando. Por ejemplo, al inicio de la década de los 90, el U.S. Bureau of Labor Statistics predijo que la IO sería el área profesional clasificada como la tercera de más rápido crecimiento para los estudiantes universitarios en Estados Unidos, graduados entre 1990 y 2005. Pronosticó también que, para el año 2005, habría 100 000 personas trabajando como analistas de investigación de operaciones.
FORMULACIÓN DE UN MODELO MATEMÁTICO
Una vez definido el problema del tomador de decisiones, la siguiente etapa consiste en reformularlo de manera conveniente para su análisis. La forma convencional en que la investigación de operaciones realiza esto es construyendo un modelo matemático que represente la esencia del problema. Antes de analizar como formular los modelos de este tipo, se explorará la naturaleza general de los modelos y, en particular, la de los modelos matemáticos.
El modelo matemático está constituido por relaciones matemáticas (ecuaciones y desigualdades) establecidas en términos de variables, que representa la esencia el problema que se pretende solucionar.  
Para construir un modelo es necesario primero definir las variables en función de las cuales será establecido. Luego, se procede a determinar matemáticamente cada una de las dos partes que constituyen un modelo: a) la medida de efectividad que permite conocer el nivel de logro de los objetivos y generalmente es una función (ecuación) llamada función objetivo; b) las limitantes del problema llamadas restricciones que son un conjunto de igualdades o desigualdades que constituyen las barreras y obstáculos para la consecución del objetivo.  
Un modelo siempre debe ser menos complejo que el problema real, es una aproximación abstracta de la realidad con consideraciones y simplificaciones que hacen más manejable el problema y permiten evaluar eficientemente las alternativas de solución.  
Los modelos matemáticos tienen muchas ventajas sobre una descripción verbal del problema. Una ventaja obvia es que el modelo matemático describe un problema en forma mucho más concisa. Esto tiende a hacer que toda la estructura del problema sea más comprensible y ayude a revelar las relaciones importantes entre causa y efecto. De esta manera, indica con más claridad que datos adicionales son importantes para el análisis.   
También facilita simultáneamente el manejo del problema en su totalidad y el estudio de todas sus interpelaciones. Por último, un modelo matemático forma un puente para poder emplear técnicas matemáticas y computadoras de alto poder, para analizar el problema. Sin duda, existe una amplia disponibilidad de paquetes de software para muchos tipos de modelos matemáticos, para micro y mini computadoras.

HISTORIA DE LA INGENIERIA INDUSTRIAL

Al inicio de la revolución industrial, muy pocos gerentes o dueños de empresa se preocupaban de las condiciones de trabajo y salarios de los obreros que se encontraban a su servicio. El salario que recibía un obrero, era de acuerdo a la estipulación de un precio para cada pieza u objeto que hubiera producido el obrero.  Estos precios se encontraban generalmente por debajo de la capacidad de producción del individuo y por supuesto, los obreros tenían que trabajar más horas para obtener un salario que, a pesar de todo, era insuficiente para mantener condiciones mínimas de subsistencia.
Con la venida de la Revolución industrial, el trabajo artesanal se ve reemplazado por las máquinas accionadas por la energía del agua, del viento o los animales, siendo además necesario mucho esfuerzo humano para la realización de todas las actividades propias de fabricación. Como inicio de algunas personas que se interesan en el mejoramiento del trabajo y otros elementos del proceso productivo comienza la labor de la Ingeniería Industrial.
Para el momento en el cual se desarrollan las fábricas textiles no existía el concepto de repuesto, puesto que no existían patrones (estándares) de producción de partes intercambiables. Los conceptos sobre partes intercambiables son desarrollado por Eli Whitney; (1765-1825).
Por otra parte los trabajos desarrollados por Frederick W. Taylor, considerado padre de la ingeniería industrial, impulsaron el progreso del campo.
Ingeniero Mecánico (del cual este campo fue origen la ingeniería industrial), había iniciado un estudio de las diferentes actividades que se ejecutaban en la Acería Midvale Steel Works, en 1888; luego de doce años de esfuerzos desarrolla un concepto basado en la idea de tarea. Taylor propuso que la gerencia realizara un plan de trabajo para cada uno de sus empleados, en la cual apareciera cada una de las actividades que debería ejecutar el operario, así como las herramientas a utilizar y el tiempo determinado para cada actividad.
Estos conceptos dieron origen a lo que se conoce como la fórmula de Taylor para máximo rendimiento, el cual consiste en los siguientes:
  • Definir la tarea
  • Definir el tiempo
  • Definir el método
Estos principios fueron expuestos por Taylor en la Sociedad Americana de Ingenieros Mecánicos. Taylor continuó su trabajo, y antes de su muerte que ocurre en 1.915, dio nuevos aportes, entre los más importantes, los que se refieren a la actividad de la gerencia para asegurar una dirección efectiva. Lo que se conoce como principios de Taylor:
  • Desarrollar un método para cada elemento de trabajo
  • Seleccionar y adiestrar rigurosamente a los operarios
  • Establecer una relación armónica con sus asalariados
  • Asumir la responsabilidad de las actividades que son de naturaleza gerencial
Frank Gilbreth se dedicó al estudio de los movimientos, analizándolos en detalle. Sus técnicas se emplean aún hoy en día. Examinando detenidamente las operaciones para la colocación de ladrillos, observó que existían por los menos tres métodos para la colocación de ladrillos, y que con el mejor de los métodos eran necesario 18 movimientos para colocar un ladrillo.
Gilbreth analizó separadamente cada uno de ellos y determino que con 4 ó 5 movimientos eran suficientes para colocar un ladrillo. Para los ladrillos interiores pasó de 18 movimientos a 2 movimientos. El resultado incrementó la velocidad de colocación de 120 ladrillos a 350 ladrillos por hora.
Algunos de los movimientos que él destacó y que retardaban el trabajo, eran necesarios para voltear el ladrillo y colocarlo en la superficie mejor terminada hacia afuera. Modificó ésta situación asignando un ayudante, retribuido con un salario menor, para que se encargara de esta operación. Además eliminó las subidas y bajadas del albañil para buscar los ladrillos, gracias a una plataforma de altura variable construida a tal efecto.
Siguiendo las huellas de Taylor, Frank Gilbreth se dedicó a estudiar los tiempos de realización de las tareas. Estos estudios los realizó con su esposa Lilliam. Los Gilbreth idearon varios métodos para estudiar los movimientos por más pequeños que fueran, fotografiando el operario mientras ejecutaba la labor, y al mismo tiempo a un reloj de manera que, en la serie de fotografías, se podía observar cada movimiento y el tiempo empleado para llevarlo a cabo.
Posteriormente desarrollaron ésta técnica, denominándola Análisis Ciclógráfico, el cual consistía en fotografiar a un operario, al cual le sujetaban en las manos, dedos o en la parte del cuerpo que deseaban estudiar, una luz eléctrica.
De esta forma obtenían en las fotografías un registro constante de las trayectorias usadas por el operario para efectuar los movimientos. La técnica del Cronociclograma difiere de la anterior en que la luz es intermitente y de frecuencia fija. Con esta última técnica se puede determinar si un movimiento es rápido (la imagen de la luz es larga en la fotografía) o si es lento (la imagen entonces es más corta).
Gracias a todos sus estudios, Los Gilbreth llegaron a determinar la existencia de 17 movimientos básicos (elementales) del hombre que resultaron de gran utilidad, entre otras cosas para determinar el método a emplear para realizar una tarea específica.
Henry Gantt es otro de los grandes cooperadores, quien trabajó con Taylor. Allí cambió el concepto de penalización al trabajador, propuesto por Taylor, por uno de incentivo (mayor remuneración), premiándose también a su capataz, cuando el rendimiento del obrero era superior al resto de su grupo. El 1917 desarrolló un método gráfico sencillo para la planificación de las distintas actividades que se deben realizar, para alcanzar un objetivo que ha sido previamente fijado hoy conocido como “Diagrama de Gantt”.
Por último, merece igual reconocimiento los aportes realizados porHenry Ford (1863-1947) con su idea de fabricación en proceso continuo, donde el artículo que se fabrica recorre un itinerario establecido dentro de la planta, y los operarios, a lo largo de este itinerario, van ejecutando una única y específica tarea sobre todos los artículos que van transitando por su lugar de trabajo.
Al final del recorrido tenemos el artículo terminado con todos sus componentes incorporados. Este aporte contribuyó, además de incrementar considerablemente el rendimiento de la producción, a uniformizar la calidad de los artículos producidos con este nuevo método.
Ford contribuyó además extendiendo el concepto de estandarización de Whitney hasta crear el comercio de repuestos para automóviles, dando origen a las partes intercambiables o normalizados comunes hoy en día.

DISEÑO DEL TRABAJO COGNITIVO

ERGONOMIA COGNITIVA
La Ergonomía es definida como la disciplina científica que estudia el diseño de los sistemas donde las personas realizan su trabajo. A estos sistemas se les llama ‘sistemas de trabajo' y son definidos de una forma amplia como ‘ el sector del ambiente sobre el que el trabajo humano tiene efecto y del que el ser humano extrae la información que necesita para trabajar '. El objetivo que tiene el ergónomo es describir la relación entre el ser humano y todos los elementos del sistema de trabajo.
Es conveniente resaltar que en la relación entre la persona y el sistema de trabajo podemos destacar dos aspectos relativamente diferentes. Por una parte, tenemos el aspecto puramente físico que hace referencia a la estructura muscular y esquelética de la persona. Por ejemplo, una persona trabajando en una oficina, puede estar sentada (escribiendo en un ordenador) o de pie (haciendo fotocopias). La postura que tiene en las dos situaciones es diferente y el diseño del puesto de trabajo tiene que hacerse pensando en las características de la estructura del cuerpo humano para que la persona se encuentre cómoda, no se canse, no desarrolle ninguna patología de la columna vertebral, etc. De este aspecto se ocupa la Ergonomía Física y es quizás el más popularizado. Por ejemplo, cuando se anuncia un nuevo coche con ‘diseño ergonómico', el slogan suele significar que, por ejemplo, la altura del volante es ajustable para adaptarse a la altura del conductor.
Sin embargo, hay otro aspecto de la relación entre la persona y el sistema de trabajo que hace referencia a como una persona conoce y actúa. Para poder realizar su tarea una persona tiene que percibir los estímulos del ambiente, recibir información de otras personas, decidir qué acciones son las apropiadas, llevar a cabo estas acciones, transmitir información a otras personas para puedan realizar sus tareas, etc. Todos estos aspectos son el objeto de estudio de la Ergonomía Psicológica o Cognitiva (Cañas y Waern, 2001). En el diseño de un coche, a nosotros nos interesará como la información es presentada al conductor. Por ejemplo, a la hora de diseñar el indicador de velocidad podemos hacerlo utilizando indicadores analógicos o digitales. Cada indicador tiene sus ventajas y sus inconvenientes desde el punto de vista de cómo el conductor percibe y procesa la información sobre velocidad.
Aunque los dos aspectos, el físico y el psicológico (ver Figura 1), no son totalmente independientes, en Ergonomía Cognitiva nos interesa el segundo y hacemos referencia al primero en la medida que tenga consecuencias psicológicas. Por ejemplo, si un controlador aéreo adopta una determinada postura incómoda aumentará su fatiga y ésta tendrá efectos psicológicos como disminuir su nivel de vigilancia.

Figura 1. Ergonomía Física y Ergonomía Cognitiva
Cuando combinamos los términos Cognición y Ergonomía lo hacemos para indicar que nuestro objetivo es estudiar los aspectos cognitivos de la interacción entre las personas, el sistema de trabajo y los artefactos que encontramos en él, con el objeto de diseñarlos para que la interacción sea eficaz. Los procesos cognitivos como percepción, aprendizaje o solución de problemas juegan un papel importante en la interacción y deben ser considerados para explicar tareas cognitivas, tales como la búsqueda de información y su interpretación, la toma de decisiones y la solución de problemas, etc.
Errores humanos
Un área de aplicación de la Ergonomía Cognitiva que tiene una larga tradición y que está acaparando una gran atención actualmente es la de la predicción y evitación de los llamados Errores o Fallos Humanos . Muchas veces nos vemos sorprendidos por la noticia de un trágico accidente como cuando un tren descarrila provocando la muerte de un gran número de personas. Estos accidentes ocurren cuando una máquina (e.g. un tren), que está siendo controlada por una persona (e.g. el maquinista), tiene un comportamiento inapropiado (e.g. descarrila). Por ello, en los primeros pasos de la investigación los técnicos centran su atención en la posible existencia de una avería técnica. Sin embargo, a menudo ocurre que, tras un examen minucioso de la máquina, no se encuentra ningún funcionamiento defectuoso de sus componentes. Entonces, cambian su atención hacia el otro posible responsable del accidente, la persona que controlaba la máquina. Desgraciadamente, lo primero que salta a las primeras páginas de la prensa es la sospecha de que esta persona tuviese alteradas sus condiciones físicas o psíquicas. Por ello, los médicos, a las ordenes de un juez instructor, comienzan a realizar análisis, buscando rastros de alcohol, drogas o cualquier otra sustancia que justifiquen un comportamiento anormal. Sin embargo, el desconcierto de los técnicos y del público se hace patente cuando estos análisis tampoco revelan nada. La persona que controlaba la máquina se encontraba en perfecto estado físico y psíquico.
¿Que ha pasado entonces? A menudo, llegado este momento oímos que “el accidente se ha debido a un error humano ”. Es decir, la persona que controlaba la máquina, en perfecto estado de salud, ha cometido un error incomprensible. Evidentemente, se descarta la posibilidad de que el error haya sido intencionado. Nadie quiere estrellarse con un tren. Por tanto, la pregunta que queda en el aire es ¿por qué cometió el error? No basta con catalogar el accidente como debido a un error o fallo humano . Eso es no decir nada y, lo que es peor, no ayuda a poner las medidas necesarias para que no vuelva a ocurrir. Es necesario buscar sus causas.
En Ergonomía Cognitiva tomamos como punto de partida la definición de error humano que ha sido propuesta por Reason (1992) quien lo considera como 'un término genérico empleado para designar todas aquellas ocasiones en las cuales una secuencia planeada de actividades mentales o físicas fallan al alcanzar su pretendido resultado, y cuando estos fallos no pueden ser atribuidos a la intervención de algún factor de azar'. En términos similares Sanders y McCormick (1993) definen error humano como 'una decisión o conducta humana inapropiada o indeseable que reduce, o tiene el potencial para reducir, la efectividad, la seguridad, o la ejecución del sistema'. En cualquier caso, un error humano es un fallo a la hora de realizar una tarea satisfactoriamente y que no puede ser atribuido a factores que están más allá del control inmediato del ser humano.
Para entender porque una persona comete un error debemos empezar por considerar que controlar una máquina significa establecer una comunicación entre ésta y la persona. Desde este punto de vista, la máquina debe tener medios para transmitir a la persona su estado interno. Así, cuando el ingeniero la construye diseña paneles con todo tipo de indicadores (diales, pantallas, etc.) pensados para ofrecer toda la información que se considera que el operario necesitará para controlarla correctamente. Además, puesto que esta comunicación ocurre dentro de un ambiente físico sobre el qué la máquina opera, se diseñan también señales que presentan la información sobre las condiciones externas en las que se trabaja. Finalmente, la comunicación entre la persona y la máquina ocurre casi siempre en situaciones en las que están implicadas otras personas y otras máquinas. La comunicación entre todas ellas se establece a través de medios técnicos diseñados para que la información sea recibida y procesada correctamente por la persona que la necesita. Por todo esto, desde hace muchos años se viene reconociendo que la causa de estos errores humanos muchas veces hay que buscarla en un posible mal diseño de la máquina, de las señales informativas o de los medios de comunicación entre las personas. Pero, ¿qué es un mal diseño?
En primer lugar, debemos tener en cuenta que al hablar de un mal o buen diseño no debemos adoptar el punto de vista según el cuál una máquina bien diseñada es aquella que funciona correctamente , es decir, que todos sus componentes realizan la función para la que han sido pensados. Por el contrario, para la Ergonomía Cognitiva, un buen diseño también es aquel en el qué se tiene en cuenta que la persona que debe trabajar con la máquina tiene una serie de características cognitivas que imponen limitaciones en su capacidad de procesar información y tomar decisiones . Una máquina mal diseñada es aquella que exige que la persona sea capaz de atender a más estímulos de los que su capacidad atencional le permite, recuerde más datos en cortos periodos de tiempo de los que son posibles retener en su memoria, tome decisiones con información incompleta y en intervalos de tiempo demasiado cortos para su capacidad de procesamiento, etc.
Diseño de Interfaces
Considerado así el diseño, el componente de la máquina más importante para un ergónomo cognitivo es la interfaz con la que interactúa el operario. De una forma simple, podemos decir que una interfaz es el “medio” a través del cual se comunican la persona y la máquina. Esta comunicación se establece en las dos direcciones. Por tanto, al hablar de una interfaz debemos incluir el medio por el cual la máquina presenta información a la persona y el medio por el cual la persona introduce información en la máquina.
La cantidad de dispositivos de entrada y salida que están disponibles en las interfaces actuales es tan grande que no es posible clasificarlos de una forma fácil. Sin embargo, puesto que l a tecnología informática se ha introducido en casi todas las máquinas que se diseñan actualmente, el diseño de interfaces se estudia fundamentalmente dentro de un área de la Ergonomía Cognitiva moderna denominada ‘Interacción Persona-Ordenador'.
El avance que estamos observando en el diseño de interfaces actualmente es tan rápido que está obligando a los ergónomos cognitivos a investigar la interacción en contexto nuevos para el ser humano. Por ejemplo, estamos pasando de interactuar con ordenadores personales que disponen de una pantalla, un teclado y un ratón, a interfaces virtuales donde los dispositivos de entrada y salida permitirán tener experiencias de interacción que pueden sobrepasar las capacidades naturales de los seres humanos (ver Figura 2). Con el ordenador personal la interacción ocurre a través de los sentidos de la vista y el oído fundamentalmente. Sin embargo, en los entornos de realidad virtual, el ser humano puede interactuar con las máquinas, por ejemplo, a través del sentido vestibular que informa al cerebro sobre el equilibrio del cuerpo humano. Por ello, la Ergonomía Cognitiva se está enfrentado actualmente a retos nuevos para aplicar la investigación de la Psicología y las Neurociencias al diseño de las interfaces para que éstas estén adaptadas a las condiciones en las que el trabajo humano se desarrolla.
Figura 2. Dispositivos de entrada y salida de las interfaces
Sistemas de control de procesos
El diseño de sistemas de control de procesos industriales es un área donde los ergónomos cognitivos trabajan habitualmente y puede servirnos para ilustrar la importancia del diseño de interfaces en el contexto de la prevención y evitación de errores humanos. En la industria de transformación de energía y fabricación de productos químicos ocurren cadenas de procesos que tienen que ser controlados por seres humanos a través de artefactos que sirven para presentar información y actuar sobre las operaciones que están ocurriendo dentro y fuera del complejo industrial. La interacción de las personas encargadas de este control con los artefactos ocurre generalmente dentro de las llamadas salas de control de operaciones , como la que puede verse en la Figura 3. En estas salas de control podemos encontrar un buen ejemplo de la importancia que un buen diseño de las interfaces tiene desde el punto de vista de la predicción y evitación de errores humanos.
Figura 3. Sala de control de operaciones

La tarea de una persona en una sala de control de procesos es supervisar lo que ocurre, intervenir cuando se requiera, conocer el estado del sistema, reprogramarlo, tomar control de los procesos automatizados cuando es necesario y planificar las acciones futuras a corto y largo plazo (Sheridan, 1997). Todas estas funciones hacen referencia a procesos cognitivos humanos cuyo correcto funcionamiento depende de un buen diseño de la interacción persona-máquina. Para que la supervisión sea posible es necesario que las interfaces presenten información sobre el estado del sistema de tal manera que pueda ser atendida, percibida, comprendida, memorizada, etc. Por ejemplo, por la investigación psicológica realizada sobre los movimientos oculares sabemos que éstos no se dan a una velocidad de más de dos por segundo. Por tanto, no es recomendable presentar información a un ritmo que exceda esta velocidad (Vicente, 1999). Lo mismo podríamos decir de la memoria. Los resultados experimentales muestran que el ser humano no puede almacenar temporalmente más de 9 unidades de información (Miller, 1956).
La validez de las decisiones de diseño que se toman cuando se construyen las salas de control de procesos se muestra de una forma dramática cuando ocurren los accidentes. Generalmente, estas salas disponen de un gran número de artefactos automáticos que funcionan en condiciones normales. Sin embargo, cuando ocurre un accidente, es el ser humano el que tiene que tomar control sobre el proceso interactuando con los artefactos directamente. Incluso, en condiciones normales se recomienda que los operaciones no dejen todo en manos de los sistemas automáticos porque se ha demostrado que entonces nos podemos encontrar con un fenómeno conocido como complacencia (Parasuraman y Riley, 1997). Este fenómeno ocurre cuando la persona confía demasiado en el buen funcionamiento del sistema automático y deja de supervisar (interactuar) el proceso, de tal manera que cuando aparece el problema no detecta la necesidad de intervenir.
Por ello, el diseño de las salas de control ha sufrido un cambio de filosofía en los últimos años que va en la línea de reconocer la importancia de la interacción persona-máquina y, por tanto, de la contribución de la Ergonomía Cognitiva en este contexto. En la concepción clásica, las salas de control eran diseñadas pensando que las máquinas debían ser automáticas y la persona sólo debería actuar cuando el accidente ocurriera. Sin embargo, ahora se piensa que el diseño de estas salas debe hacerse desde la concepción basada en la estrategia que Zwaga y Hoonhout (1994) llamaron supervisión a través del conocimiento conciente de la situación .
Siempre que una persona está en una situación cualquiera tiene un conocimiento de lo que ocurre en su entorno. Incluso cuando estamos sentados sin hacer nada tenemos información de todo lo que ocurre a nuestro alrededor. Sin embargo, cuando tenemos que realizar una tarea compleja como la que se realiza en una sala de control, es necesario que procesemos un conjunto ingente de datos sobre lo que está ocurriendo dentro y fuera de ella. Toda esta información debe ser atendida, retenida, interpretada y usada para las tomar decisiones necesarias para que el proceso industrial progrese correctamente. A todo esto se le llama adquirir, procesar y utilizar Conocimiento de la Situación, lo que ha sido definido como “la percepción de los elementos en el ambiente dentro de un volumen de tiempo y espacio, la compresión de su significado y la proyección de su estado en un futuro cercano” (Endsley, 1995).
En muchos de los dominios de aplicación de la Ergonomía Cognitiva, como el tráfico de control aéreo, el pilotaje de aviones, o el control de una central nuclear o térmica, los ergónomos han necesitado utilizar este concepto para describir e integrar todos los procesos cognitivos que son responsables de la adquisición, almacenamiento y uso de la información que está disponible para que la persona pueda realizar el trabajo en ellos y, de esta manera ayudar a que el diseño del sistema de trabajo sea el apropiado para el ser humano, mejorando su bienestar y evitando los temibles errores humanos.
Conclusión
La importancia que la Ergonomía está adquiriendo actualmente como disciplinar científica que puede contribuir a mejorar el bienestar humano, requiere que hagamos un esfuerzo para definir bien su objeto de estudio. En este sentido, en este trabajo hemos querido llamar la atención sobre los dos aspectos, el físico y el psicológico, que son importantes diferenciar en la relación del ser humano y el sistema donde trabaja, y que dan pié a distinguir dos subdisciplinas dentro de la Ergonomía, la Física y la Cognitiva.