Home

viernes, 26 de diciembre de 2008

¿Formación en tiempos de crisis? Una Necesidad

En los tiempos de cambio en los que nos movemos en los últimos meses hay una tendencia bastante frecuente en las empresas a eliminar “gastos no necesarios” y curiosamente, uno de esos gastos es siempre el capítulo dedicado a formación. Sin embargo…¿Cuál sería el resultado si precisamente ahora nos volcamos en esta actividad?... El camino hacia el éxito.

Resumen:

El resultado final de la empresa depende en gran medida del grado de preparación del propietario y su equipo directivo, si entendemos por tal preparación, una actitud mental adecuada.
Se pueden y se deben aprender habilidades directivas; sin embargo, más allá de ello, no se obtienen resultados sin la adecuada actitud.

Hoy en día, y en base a la experiencia de muchos emprendedores de éxito radica básicamente en su actitud mental.

Henry Ford decía “ si cree que puede o si cree que no puede, en ambos casos tiene razón” . Esta frase encierra la base de este artículo y ello porque la razón más significativa para el éxito o el fracaso de una empresa es el sistema de creencias de los propietarios y del equipo directivo. Sin el apropiado sistema de creencias, nada funciona.

Precisamente cuando me refiero a formación en el ámbito empresarial como inversión estoy hablando de lo que hoy parece estar tan de moda pero que muchos no conocen en toda su dimensión: el
coaching aplicado a los negocios.

Estamos habituados a recibir, de una forma u otra (cursos, seminarios, consultorías, libros, etc…) conocimientos sobre sistemas y procedimientos para esto o lo otro que se nos supone garantizan alcanzar nuestros objetivos. Y sin embargo, en ocasiones, aún la más estricta aplicación de estas soluciones no nos conduce al
resultado esperado .

La razón radica en que no se pueden aplicar estas respuestas, soluciones o claves, a menos que el empresario y su equipo directivo están preparados mentalmente. Y esta preparación mental hace referencia a la realidad que creen como cierta en cada situación.

El problema es que la realidad que creemos como cierta es el resultado de nuestras creencias y estas son las responsables de que, en muchas ocasiones, no podamos ver más allá de lo que ocupa nuestra mente y esto nos impida ver la realidad de otros.

Con el coaching decimos que en la empresa el éxito es la combinación de dos factores: personas + sistemas. El uno sin el otro no conducen al resultado esperado. Es decir, podemos tener unos fantásticos sistemas pero si las personas no se involucran, no alcanzaremos el éxito. Y al revés, podemos contar con un equipo de personas magnífico, pero sin sistemas, tampoco nos van a conducir al resultado que queremos.

Por eso es importante añadir este factor “persona” en el concepto de
formación actual en la empresa; no en un plano teórico como en muchas ocasiones hemos visto todos, sino en el más estricto sentido práctico del día a día, trabajando al lado de cada una de esas personas, sacando lo mejor de si mismas y favoreciendo una apertura mental en su actitud hacia la empresa.
Sólo así se puede garantizar una mejora en los resultados y especialmente, y desde el punto de vista del empresario, sólo así puede recoger de su empresa la verdadera riqueza que esta le proporciona, es decir, una mejor calidad de vida.

El objetivo del coaching aplicado a las empresas es hacer de cada una de ellas un negocio rentable que funcione aún sin la presencia del propietario/s. Y eso sólo se consigue partiendo del punto “cero” ( como decía Sócrates- “sólo sé que no sé nada”-) y abriendo la mente a nuevos aprendizajes que permitan una adaptación al cambio rápida y con garantías, en todas y cada una de las personas responsables de la dirección de la misma.

Cambiar nuestros paradigmas a través de este enfoque de
coaching nos va a permitir no sólo contribuir en mayor medida al éxito de nuestras empresas sino que además nos da nuevas herramientas de actuación y comportamiento para nuestra propia vida que nos permiten mejorar nuestros resultados personales y profesionales.

Reflexione unos minutos sobre ello y seguramente será un tiempo valiosísimo para su empresa y/o equipos. Recuerda la frase de Henry Ford que comentaba al inicio del artículo: “ Si cree que puede o si cree que no puede, en ambos casos tendrá razón”.

©2008 Microsoft Corporation. Todos los derechos reservados.
Póngase en contacto con nosotros Condiciones de uso Marcas registradas Declaración de Privacidad

jueves, 18 de diciembre de 2008




Y UN PROSPERO AÑO NUEVO .... PARA TODOS ....

viernes, 12 de diciembre de 2008

Gestión del Desempeño

Como medir con más objetividad el trabajo y el rendimiento de las personas

A medida que la tecnología y las máquinas han pasado a formar parte del paisaje empresarial cotidiano, se ha vuelto a subrayar la importancia del potencial creativo de las personas y del valor añadido que estas personas aportan al día a día de cualquier empresa.
Empleados y trabajadores han pasado a ocupar el número uno de preocupaciones en las listas de las organizaciones. Nos enfrentamos a un nuevo sistema de gestionar y de valorar a las personas dentro de las empresas, y el capital humano se ha convertido en uno de los bienes más preciados. De ahí los esfuerzos en retener a los mejores empleados, en utilizar la formación como vía de realización, estudiar los distintos casos para conciliar de buena manera la vida personal y la laboral... Se ha llegado a la conclusión (antes olvidada) que para conseguir hacer crecer una compañía, hay que conseguir que sus empleados avancen de igual manera. Las empresas destinan muchos recursos al capital humano, y como respuesta a este esfuerzo esperan, evidentemente, buenos resultados. Hay que evaluar para mejorar.

La evaluación tradicional, que mide conocimientos (80%) y habilidades (20%) pasa por alto lo que de verdad le interesa conocer de las personas. En el mundo actual, la información y la tecnología cambian a cada momento, pero la esencia de una persona (sus facilidades de relacionarse, de hacerse responsable de sus actos, de ser cooperativo en su puesto de trabajo, de interesarse por su propio crecimiento profesional), tienen un carácter más permanente y son el eje que hace la verdadera diferencia entre un trabajador competente de un trabajador incompetente. En el pasado, el área de desarrollo del capital humano se centraba en solventar las carencias que presentaba cada persona. Hoy se trabaja en la evolución de cada trabajador en su puesto. La consecución de los propios logros del trabajador forma parte de los objetivos de la empresa.

¿Cómo medir toda esta información con criterio y objetividad? ¿Cómo cuantificar los logros obtenidos? ¿Cómo medir el rendimiento personal de cada uno de los trabajadores? Quizá usted piense que le basta con echar una ojeada por las mañanas, apuntar quién llega puntual, quién se queda hasta tarde en su despacho, o quién acude más veces a preguntarle o pedirle consejo. Las evaluaciones informales, basadas en el trabajo diario, son necesarias pero resultan insuficientes. Contando con un sistema formal puede identificar a los empleados que cumplen lo esperado y a los que no lo hacen. Incluso las decisiones sobre ascensos, compensaciones y otras más dependen de la información sistemática y bien documentada disponible sobre el empleado. Además de la planificación y proyección de acciones futuras de cara a un mayor desarrollo del individuo, del grupo y de la organización. No debe enfocarse jamás como un examen o valoración unidireccional y personal que suponga un elemento de control o juicio sobre la persona.

Se acerca el mes de diciembre, final de año y momento de echar la vista atrás, hacer balance y sacar conclusiones. En los próximos meses las medianas y grandes empresas llevarán a cabo el proceso de evaluación de resultados obtenidos y, en ocasiones, también las de competencias. Esa hora de la gestión del desempeño. “En muchas empresas no se aprovecha el potencial de las evaluaciones de desempeño, que a veces se convierten en un trámite administrativo más. La coherencia sostenida es clave para cambiar esta tendencia”. Es lo que afirma Carlos Pelegrín, director de desarrollo y formación de Telefónica de España. ¿Qué opina de cómo se realiza esta tarea en su empresa?
¿Cuál es el objetivo de medir el rendimiento de las personas?

Es el proceso en el cual se mide el grado en que cada trabajador cumple los objetivos del cargo o puesto de trabajo que desempeña, así como la forma en que utiliza sus recursos para lograr dichos objetivos. Podemos definirlo como conseguir una buena fotografía de la situación laboral de todos los trabajadores que integran una empresa, atendiendo al nivel de sus conocimientos, habilidades y conductas en sus respectivos puestos de trabajo. Además, una vez medidos estos conocimientos presentes en la empresa se trata de compararlo con la plantilla ideal definiéndola como aquella que permite conseguir los objetivos estratégicos de las compañías.

Principios de la Evaluación de Desempeño

-Es necesario que las evaluaciones de desempeño tengan niveles de medición o estándares, completamente verificables.
-Los sistemas de evaluación deben estar directamente relacionados con el puesto, es decir con el diseño del puesto de trabajo, si esto no se cumple, entonces la evaluación carece de validez.
-La evaluación del desempeño es un proceso continuo que tiene por finalidad elevar la calidad de la actuación y de los resultados de los empleados.
-La evaluación del desempeño se realiza a partir de los resultados del trabajo y acorde a los objetivos aprobados para cada etapa.
-Toda evaluación deberá ser discutida con el empleado, por parte del supervisor, y deberá indicar el período de tiempo evaluado.
-Las evaluaciones del desempeño tendrá resultados únicos y particulares para cada empleado.
-Permite al individuo tener parte activa en la identificación de sus propios puntos fuertes y débiles, quedando a su cargo toda decisión que tome al respecto con el objetivo de mejorar su desempeño.
-El evaluado debe saber con anticipación la fecha de la Evaluación y esta se desarrollará en un clima favorable entre evaluador y evaluado.
-El evaluado debe sentirse motivado a autoevaluarse en cada objetivo.
-Además, el sistema de evaluación tiene un doble valor ya que aumenta la productividad de los profesionales del departamento de recursos humanos y es un elemento clave para orientar de modo efectivo y estratégico la inversión en desarrollo y formación.

Finalidades de la evaluación del desempeño

-Evaluar el rendimiento y comportamiento de los empleados.
-Evaluación global del potencial humano.
-Proporcionar oportunidades de crecimiento y condiciones de efectiva participación a todos los miembros de la organización
-Mejorar los patrones de actuación de los empleados
-Detección del grado de ajuste persona-puesto
-Proporcionar un sistema de doble vía de información.
-Establecimiento de sistemas de comunicación dentro de la empresa
-Implantación de un sistema que motive a los empleados a incrementar su rendimiento.
-Establecimiento de políticas de promoción adecuadas
-Aplicación de sistemas retributivos justos y equitativos basados en rendimientos individuales.
-Detección de necesidades de formación o reciclaje
-Mejorar las relaciones humanas en el trabajo
-Para obtener datos acerca del clima laboral, así como detectar problemas ocultos o en fase de latencia
-Validación de los programas de selección
-Autoconocimiento por parte de los empleados
-Conseguir unas relaciones mejores entre jefe y subordinado, basadas en la confianza mutua.
-Establecer objetivos individuales, que el evaluado debe alcanzar en el período de tiempo que media entre dos evaluaciones, al tiempo que revisa el grado de cumplimiento de los objetivos anteriores
-Actualización de las descripciones de puestos
¿Cómo puede ayudarnos la tecnología a evaluar de una manera objetiva?

Lo que se necesita, ha quedado claro, es información. Cantidades ingentes de información que le señalen cómo evaluar con objetividad a sus empleados. Necesita conocerlo todo acerca de ellos: Su nivel de rendimiento diario, por meses, por proyectos, problemas en cumplir determinados plazos, momentos personales difíciles, responsabilidades nuevas adquiridas, incapacidades no superadas, grado de entrega, de integración con el equipo... Podemos seguir y seguir y llenar folios y folios. ¿Cómo conseguir reunir toda la información necesaria para evaluar el desempeño de todos los empleados de todos los departamentos de la empresa? Si es una empresa grande, el problema es la cantidad de información. Y si es pequeña, la calidad: Es mucho más difícil ser objetivo con el trabajo de alguien que es familia, conoces mucho, trabajas codo a codo o peleas constantemente.

Fuente: (
http://www.microsoft.com/spain/empresas/empleados/objetividad_rendimiento.mspx)

©2008 Microsoft Corporation. Todos los derechos reservados.
Póngase en contacto con nosotros Condiciones de uso Marcas registradas Declaración de Privacidad

miércoles, 5 de noviembre de 2008

Un poco de história: Orígenes de UNIX LINUX

Las versiones de UNIX

El nombre UNIX puede significar innumerables cosas. Es uno de los términos de contexto específicos más empleado en la industria de la computación actual. Para comprender mejor el significado de la palabra UNIX cuando alguien la emplee, es necesario conocer la versión del sistema operativo de que se habla.
Aunque son muchos y distintos los distribuidores que of recen las versiones de UNIX, éstas pueden dividirse en dos grandes categorías: el System V y la BSD (Berkeley Software Distribution o distribución de software Berkeley, en español) de UNIX. El System V de UNIX es la versión desarrollada por los creadores de UNIX, AT&T Bell Laboratories. La BSD de UNIX estuvo relacionada con la versión de UNIX que se desarrolló y proliferó en la Universidad de California en Berkeley.

La versión más popular de la BSD la vendió Sun Microsystems para sus potentes estaciones de trabajo. Para la versión 4 del System V de UNIX, AT&T y Sun Microsystems fusionaron sus dos versiones en el System V. Gracias a esta fusion y a la reanimación de la industria en torno al estándar del System V de UNIX, a este último se le considera ahora el sistema estándar de UNIX. Sin lugar a duda, lo mejor que pudo ocurrirle al sistema operativo UNIX fue el desarrollo de la versión 4.2 del System V (SVR4.2). Creado e introducido por UNIX System Laboratories (USL, que ahora pertenecen a Novell, Inc.), el SVR4.2 combi na la potencia y las capacidades de UNIX con una "afectuosa" interfaz gráfica para Ios usuarios (GUI, por sus siglas en inglés). El resultado es un sistema operativo por el que puede navegar con suma facilidad un usuario inexperto en computación o al que pueden personalizar radicalmente los administradores de sistemas u otros expertos.

Novell vende el SVR4.2 como UnixWare. Antes de la introducción al mercado del SVR4.2, los usuarios de UNIX sólo veían un indicador de línea de comandos (un simple signo de pesos) luego de conectarse al sistema. Sin ninguna guía evidente en la pantalla, los usuarios inexpertos a menudo se desalentaban tanto que preferían abandonar UNIX en favor de otro sistema Operativo más conocido. Esto contribuyó sin duda a que UNIX se ganara durante los años la reputación de ser un sistema operativo poco amistoso. No obstante, la experiencia y los comentarios favorables disiparon parte de la renuencia de los usuarios, con lo cual dicha reputación cambió lentamente.
Características generales de UNIX/Linux
Los beneficios derivados del uso del sistema operativo UNIX, y por tanto de Linux, provienen de su potencia y flexibilidad. Estas son resultado de numerosas características integradas al sistema, las que están disponibles tan pronto como se inicia. En las siguientes secciones se analizan estas características con detalle.
Multitareas
La palabra multitareas describe la habilidad de ejecutar, aparentemente al mismo tiempo, numerosos programas sin obstaculizar la ejecución de cada aplicación. Esto se conoce como multitareas preferente, porque cada programa tiene garantizada la posibilidad de correr, esto es, cada programa no se ejecuta sino hasta que el sistema operativo lo aparta para permitir que otros programas corran. Este tipo de multitareas es exactamente lo que Linux hace. MS-DOS y Windows 3.1 no soportan multitareas preferente, sólo la llamada multitareas cooperativa, bajo la cual los programas corren hasta que ellos mismos permiten la ejecución de otro programa o no tienen otra cosa que hacer durante ese periodo. Para comprender mejor la capacidad de multitareas de Linux, es preciso examinarlo desde otra perspectiva. E1 microprocesador de una computadora puede hacer una sola cosa a la vez, pero capaz de completar esas tareas individuales en períodos tan breves que son difíciles de captar. Por ejemplo, los microprocesadores típicos de hoy operan a velocidades de reloj de 25 a 90 Mhz (megahertz) o más veloces, es decir, son capaces de transferir 25 a 90, o más, millones de bits por segundo. A1 procesar un conjunto completo de instrucciones, las velocidades son más rápidas, en general 30 nanosegundos (una 1 milmillonésima de segundo). La mente humana es incapaz de detectar la diferencia entre una demora tan breve y algo que ocurra simultáneamente.
Linux y otros sistemas operativos de multitareas preferente realizan el procesamiento preferente mediante el monitoreo, tanto de los procesos que están en espera de ejecución como de los que se están ejecutando. Entonces, el sistema programa cada proceso para que tenga la misma oportunidad de acceso al microprocesador. El resultado es que las aplicaciones abiertas parecen correr al mismo tiempo (en realidad hay demoras intermedias de una milmillonésima de segundo cuando el procesador ejecuta un conjunto de instrucciones desde una aplicación y cuando Linux lo programa para volver a dedicarle tiempo a ese proceso).

Multiusuario

El concepto de que numerosos usuarios pudieran accesar aplicaciones o el potencial de procesamiento de una sola PC era un mero sueño hace unos cuantos años. UNIX y Windows NT ayudaron a que este sueño se convirtiera en realidad. La capacidad de Linux para asignar tiempo del microprocesador a numerosas aplicaciones simultáneas se prestó como consecuencia a servir a numerosas personas al mismo tiempo, cada una ejecutando una o más aplicaciones. La particularidad en realidad destacada de Linux y sus características de multiusuario y multitareas, es que más de una persona puede trabajar en la misma versión de la misma aplicación de manera simultánea, desde las mismas tenninales o desde terminales separadas. Esto no debe confundirse con numerosos usuarios que actualizan un archivo a un tiempo, particularidad que es potencialmente desconcertante y peligrosa a la vez que indeseable.

Breve historia de Linux

La historia de Linux está ligada a la de UNIX y, en menor grado, a un programa llamado Minix. Este último era un sistema operativo tutorial, escrito por el reconocido y respetado científico de la computación Andrew Tannebaum. Este sistema operativo adquirió popularidad en varias plataformas de PC, incluidas las PCs basadas en el MS-DOS. Pero más adelante se hablará de Minix; primero, se presenta una breve historia de UNIX.
Cuando Novell, Inc. Ie compró UNIX System Laboratories a Ameritan Telephone and Telegraph Corporation (AT&T) en 1993, ganó en propiedad la marca registrada conocida como UNIX y, en consecuencia, controló los derechos relativos a quién puede usarla con fines de publicidad u otros propósitos comerciales. Por esta razón es que usted no puede llamarle Linux UNIX..

Aunque AT&T fue el creador del sistema operativo UNIX, muchas otras compañías e individuos han tratado de mejorar durante años la idea básica. En las secciones siguientes se examinan algunas de las principales variantes que se usan en la actualidad. AT&T , Ken Thompson era un programador de computación que trabajaba para AT&T Bell Laboratories. En 1969, un grupo de personas que trabajaba bajo las órdenes de Ken desarrolló un sistema operativo que era flexible y totalmente compatible con las diversas necesidades de los programadores. La leyenda cuenta que Ken, quien había estado usando el sistema operativo MULTICS, le puso el apodo de UNIX a este nuevo producto mientras bromeaba con algunos miembros de su equipo de desarro llo. Estaba ridiculizando el sistema operativo multiusuario MULTICS (UNIX se forma con uní, que significa uno o único, seguida de la letra X homófona). Quizá el aspecto más jocoso de este suceso informal radica en el hecho de que a MULTICS lo recuerdan hoy día sólo unos cuantos usuarios como un sistema operativo multiusuario viable, en tanto que UNIX se ha convertido en el estándar industrial de tacto para los sistemas operativos multiusuario y multitareas.

BSD

Berkeley Software Distribution, en la Universidad de Califoroia en Berkeley, en 1978 dio a conocer su primera versión de UNIX, basada en la Version 7 de AT&T. E1 BSD UNIX, como se le conoce en toda la industria, contiene las mejoras desarrolladas por la comunidad académica de Berkeley y concebidas para hacer de UNIX
un sistema más amigable.
Las mejoras de "uso amistoso" en BSD UNIX fueron un intento por conseguir que UNIX atrajera la atención de personas comunes así como la de los programadores avanzados que disfrutaban de la flexibilidad del programa porque se acomodaba a sus cambiantes demandas. A pesar de no ser cien por ciento compatible con el UNIX original de AT&T, BSD lograba sus objetivos: las características adicionales tentaban a los usuarios comunes a utilizar UNIX. BSD se ha convertido en el estándar académico. Desde ese entonces, los creadores originales de BSD han lanzado una versión para la plataforma Intel llamada, muy apropiadamente, BSD386.
La distribución de esta versión también está limitada en Internet y por medio de los distribuidores de CD-ROM. Además, los autores escribieron varios artículos hace unos cuantos años en la revista de computación Dr. Dobb 's, en los que detallan el diseño y fabricación del 386BSD.

Coherent

Coherent, otro clon de UNIX, lo distribuye Mark William's Company. Durante algún tiempo, Coherent fue el clon más económico de UNIX de los que había comercialmente disponibles en el mercado. Coherent aun tiene bastantes seguidores y varios grupos de noticias de USENET que siguen la evolución del producto.

USL

USL, o UNIX System Laboratories, fue una subsidiaria de la organización AT&T que estuvo dedicada al desarrollo del sistema operativo UNIX desde el principio de proyecto la década de los ochenta. Antes de que Novell la adquiriera en 1993, USL produjo el código fuente para todos los derivados del System V de UNIX de la industria. No obstante, la propia empresa USL no vendió ningún producto terminado en aquel entonces.

El último lanzamiento de UNIX de USL fue la versión 4.2 del System V de UNIX (SVR4.2). El SVR4.2 marcó la primera incursión de USL al mercado de mayoristas de UNIX. En una aventura conjunta con Novell, la que creó temporalmente una compañía llamada Univel, USL produjo una versión terminada del SVR4.2 llamada UnixWare. Con la compra de USL por parte de Novell, esta última compañía cambiado el enfoque de USL (ahora parte del UNIX Systems Group de Novell) productor de código fuente a productor de UnixWare.
XENIX, SunOS y AIX

Finales de los setenta y principios de los ochenta, durante la cúspide de la revolución de las PCs, Microsoft desarrolló su versión de UNIX, a la que llamó XENIX.
El potencial de procesamiento disponible en las PCs comenzó a rivalizar con el de las minicomputadoras existentes. Luego de la aparición del microprocesador 80386 de Intel, pronto se hizo evidente que XENIX (desarrollado de manera específica Esta para las PCs) ya no era necesario. Microsoft y AT&T fusionaron XENIX y UNIX Guid en un solo sistema operativo llamado System V/386, versión 3.2, el que opera en casi cualquier configuración común de hardware. XENIX todavía puede conse guirse con Santa Cruz Operation (SCO), desarrollador conjunto de Microsoft, cuyo esfuerzo por promover XENIX en el mercado de las PCs ha hecho que esta ver- instalasción de UNIX sea una de las más exitosas en el ámbito comercial. SCO también produjo una versión de UNIX, llamada SCO UNIX. :

Sun Microsystems ha contribuido en gran medida al potencial de ventas de UNIX mediante la promoción del SunOS y sus estaciones de trabajo correspondientes. El trabajo de Sun con UNIX produjo una versión basada en BSD. Como nota interesante el SVR4 de AT&T también es compatible con BSD; sin duda un descendiente de AT&T y la colaboración de Sun Microsystems en la versión 4.0 del System V de UNIX. La incursión de IBM en el mundo de UNIX dio como resultado un producto llamado AIX (ejecutivo interactivo avanzado). Aunque no es tan conocido como otras versiones de UNIX, AIX se desempeña bien y no deja de estar presente dentro del mercado de los sistemas operativos. Tal vez el viejo concepto de que cualquier versión de UNIX es un sistema poco amigable e implacable, es lo que ha impedido que AIX tença una mejor recepción en el mercado.

Linux

Linux es el invento de un estudiante de ciencias de la computación, en aquel entonces de 23 años, cuyo nombre es Linus Torvalds. Linux cobró vida como un proyecto de entretenimiento de Linus, quien esperaba crear una versión más comple ta de UNIX para los usuarios de Minix. Este último, como ya se mencionó antes, es un programa desarrollado por el doctor Andrew Tannebaum, profesor en ciencias de la computación.

El sistema Minix se escribió para mostrar varios conceptos de las ciencias de la computación incluidos en los sistemas operativos. Linus incorporó estos conceptos en un sistema independiente que imita a UNIX. El programa, accesible sin reserva a los estudiantes de ciencias de la computación de todo el mundo, pronto generó muchos adeptos, incluidos sus propios grupos de noticias de USENET. LinusTorvalds se aplicó a la tarea de proporcionar a sus compañeros usuarios de Minix una mejor plataforma que pudiera correr en las ampliamente accesibles PCs de IBM.

Eligió las recién aparecidas computadoras 386 a causa de las propiedades de conmutación de tareas de la interfaz 80386 en modo protegido.

domingo, 26 de octubre de 2008

Uno de los vastos combustibles para la innovación constante en las TICS: La Gestión del Conocimiento en las Organizaciones.

La Gestión del Conocimiento en las Organizaciones.

Entre los múltiples planteamientos que ha hecho Drucker [39] respecto al tema del conocimiento en las organizaciones, se destaca su opinión acerca de que el conocimiento es hoy el único recurso significativo porque los tradicionales factores de producción - suelo (recursos naturales), trabajo y capital – aunque no han desaparecido se han convertido en secundarios. Pueden obtenerse fácilmente siempre que haya conocimiento.

Según el autor el conocimiento ha pasado de una situación referida al desarrollo intelectual de la persona a otra como factor de producción, tomando como base su utilidad. Aplicar conocimiento a lo que se sabe de productividad; pero hacerlo en tareas nuevas o diferentes es innovación.

Lozano [40], por su parte, sostiene que el entorno actual del mundo empresarial se encuentra en un constante proceso de cambio, promovido en muchos casos por la tecnología, así como por la asunción del concepto de globalización del mercado, lo que obliga a considerar otros elementos dentro del ámbito de las organizaciones, de carácter intangible tal como el conocimiento que posee su personal. Es este conocimiento el que va a permitir crear nuevos productos y servicios y, por tanto, crear cada vez más valor para la organización.

Nonaka [41] afirma que el conocimiento, en el ámbito organizacional, es la creencia justificada de ciertas técnicas adquiridas empíricamente y sostiene que la creación del conocimiento organizacional debe entenderse como la capacidad orgánica para generar nuevos conocimientos, diseminarlos entre los miembros de la organización y materializarlos en productos, servicios y sistemas, lo cual constituye la clave de la innovación en las empresas.

Por lo tanto, la innovación y el conocimiento que hace posible esa innovación, aunque no se incluyen en la contabilidad clásica de las organizaciones, se han convertido en importantes fuentes de ventajas competitivas. Ante esa realidad, la importancia del conocimiento se acrecienta y en la actualidad se plantea el surgimiento de un nuevo tipo de organización: la basada en el conocimiento.

La organización basada en el conocimiento se considera “una suprared de recursos de conocimiento compuesta por una red de recursos humanos, la red de recursos de información y la red de recursos informáticos y telemáticos”.


Las organizaciones basadas en el conocimiento se caracterizan por generar, procesar y gestionar la información para transformarla en conocimiento. Entre sus objetivos deben

encontrarse el desarrollo profesional y personal de sus miembros, la aplicación del máximo potencial de los profesionales y la continua innovación y mejora de productos y servicios. En pocas palabras es una organización que depende del conocimiento de sus empleados.

En opinión de Berenguer [43] estas organizaciones deben resumir las siguientes características:

· Considerar el tiempo como factor crítico.

· Tener claro que la tecnología no vuelve a una empresa más competitiva.

· Darse cuenta de que sólo el mercado decide el éxito de n producto, independientemente de su calidad.

· Tener una cultura organizacional basada en compartir conocimientos y valorar los resultados a medio y a largo plazo.

· Respetar las aportaciones individuales de cada persona. Si no se valora al que realiza una contribución, acabará por irse a la competencia, y con él, su conocimiento.


Todo lo que conlleva a que las organizaciones deben producir nuevos conocimientos mediante la experiencia, las aptitudes y actitudes en el desarrollo de una cultura organizacional, es decir, deben crear un ambiente de conocimiento en el que converjan la calidad de los recursos humanos, la capacidad de gestionar la información y la habilidad del modelo organizativo para implementar e integrar las herramientas, técnicas y métodos adecuados.

La organización debe involucrarse completa en el proceso de la creación del conocimiento; pero la responsabilidad en la generación de políticas, estrategias y tácticas es función de la alta gerencia.

En este contexto, el conocimiento depende, entre otros factores, de la eficaz gestión de la información, aunque las tecnologías de la información que inciden sobre ésta no son

suficientes para alcanzar el conocimiento. La tecnología es una herramienta necesaria; pero no ocupa el primer lugar.

Consecuentemente, muchos autores afirman que existen dos soportes básicos del conocimiento: los recursos humanos que intervienen en los procesos de producción o de soporte organizacional (formación, capacidades, cualidades personales, entre otros.); y la información manejada en dichos procesos que capacita a estas personas, incrementa su formación o habilidades para el desarrollo de sus tareas [44]. Además de elevar los resultados de la organización si se maneja bien.


· Taxonomía del conocimiento.


Existen diferentes clasificaciones del conocimiento que responden a distintas variables como el propósito y el origen.

Polanyi [45] apunta la existencia de dos dimensiones del conocimiento: conocimiento tácito y conocimiento explícito.

Las nuevas experiencias son siempre asimiladas por medio de conceptos que el individuo ya posee y que, de algún modo, recibió o heredó de otros usuarios del lenguaje. Toda comunicación se basa en una medida significativa en conocimientos que no pueden expresarse, como tampoco puede expresarse nuestro conocimiento de los procesos mentales. Estos conceptos son tácitos; en consecuencia, todo nuestro conocimiento se basa en una dimensión tácita.

El conocimiento tácito es aquel que se encuentra en la mente de las personas; es el producto de la experiencia, la sabiduría, la creatividad, y resulta difícil expresar o formalizar. Es entonces aquel conocimiento que la persona tiene incorporado sin tenerlo permanentemente accesible a la conciencia, pero del cual el individuo hace uso cuando las circunstancias lo requieren y que es utilizado como instrumento para manipular el fenómeno que se está analizando.

El conocimiento tácito es altamente personal y difícilmente transferible o comunicable. El conocimiento tácito define el contexto que permite que una percepción focalizada sea posible y que resulte comprensible y fructífera. Su transmisión, de ser posible, requiere de actividades conjuntas y compartidas. En un influyente estudio sobre la construcción del láser TEA H. Collins sostenía que “The major point is that the transmission of skills is not done through the medium of written words”. Esa y otras experiencias han llevado a los estudiosos de la sociología del conocimiento científico y tecnológico a sostener que “the diffusion of knowledge could not be reduced to the mere transmission of information”.

Como contraposición al concepto de conocimiento tácito aparece el de conocimiento explícito. Este último es el conocimiento objetivo y racional que puede ser expresado en palabras, oraciones, números o fórmulas, en general independiente de contexto alguno. También se lo suele identificar como conocimiento codificado ya que puede ser expresado fácilmente de modo formal y ser transmitido a otros de modo igualmente sencillo.

Cualquier tipo de conocimiento puede ser convertido, hasta cierto punto, mediante procesos de transferencia[3].

El conocimiento explícito es aquel que resulta fácil de transmitir mediante el lenguaje formal y puede ser soportado en libros, escritos, audiovisuales, etc. El propio Kanti [47] propone los siguientes modelos relacionados con el conocimiento explícito.

Sobre la base del stock de conocimiento tácito y explícito que los individuos poseen pueden generar un nuevo y mayor stock de conocimiento tácito por la interacción de dos factores[4]. En primer lugar, actúa un factor cognoscitivo que se funda en los “modelos mentales” que los seres humanos se forman continuamente respecto del mundo y que por medio de esquemas, paradigmas y puntos de vista les permite crear y modificar, en su mente, analogías y diferenciaciones. En segundo lugar, está presente un factor técnico referido al know-how concreto y a las reglas de decisión aplicables a situaciones y contextos específicos[5].

La diferenciación entre diferentes tipos de conocimiento se ha trasladado a las formas en que el conocimiento es generado. Así se han presentado diferentes modelos de producción de conocimiento. Por un lado está el “modelo algorítmico” de acuerdo con el cual la actividad científica produce y transmite cierto género privilegiado de enunciados proposicionales, independientes de toda connotación particular proveniente de los contextos sociales en que fueron generados y en los que adquirieron significado. Tales enunciados constituyen las bases reconocidas de conocimientos respecto del mundo físico. El modelo alternativo reconoce que el conocimiento se produce en un medio social y cultural que lo condiciona y, en tal sentido, debe asignarse mucha importancia al conocimiento tácito para una adecuada comprensión de la actividad científica.

Esta discusión llegó también al campo de la economía a partir de las obras de Richard Nelson y Sidney Winter[6]. Dichos autores acudieron al concepto de Polanyi de conocimiento tácito al señalar que “the knowldege that underlies skillful performance is in large measure tacit knowledge in the sense that the performer is not fully aware of the details of the performance and finds it difficult or impossible to articulate a full account of those details”.

Nelson y Winter consideraron que las situaciones relacionadas con el conocimiento tácito no tenían un carácter absoluto sino que eran contextuales.

Señalaban que la condición de tácito no implicaba ser “inarticulado” aunque la inarticulabilidad de cierto tipo de conocimiento general implicaba, por cierto, que se trataba de conocimiento tácito. En consecuencia, ciertos tipos de conocimientos podrían ser tácitos en determinadas ocasiones y explícitos en otras[7].

En importantes trabajos anteriores de Richard Nelson y de Kenneth Arrow el conocimiento científico y tecnológico había sido siempre considerado como “información”, de modo que poseía las características y propiedades de los bienes públicos. Por lo tanto, no podía ser

producido y distribuido en forma óptima a través del mecanismo de los mercados competitivos. Con estos argumentos se fundamentaba la necesidad de conceder subsidios a la ciencia y a la investigación. Pero si el conocimiento es tácito, y por lo tanto no codificado, ya no tiene las propiedades del bien público y el argumento del fallo del mercado no se sostiene.

Según algunos autores, la conversión de conocimiento tácito a explícito, es lo que permite hablar de la Gestión del Conocimiento. Significa que si el conocimiento no se formaliza, es decir, si no se convierte en información, resulta imposible planificarlo, organizarlo, dirigirlo y controlarlo.

La gestión del conocimiento en su propósito de difundir constantemente conocimiento, debe desarrollar la explotación de productos/servicios de información especializada con alto valor agregado para desarrollar nuevos y diferentes procesos, y productos dentro de las organizaciones.

· De los datos al conocimiento organizacional.

Por tratarse de un campo de estudio recientemente incorporado a las Ciencias de la Administración, los conceptos asociados y la terminología relacionada todavía se encuentran en fase de desacuerdo por parte de los investigadores y expertos, lo que justifica no sólo la necesidad de explicar los nuevos conceptos – o viejos con nuevo significado – sino también identificar una pauta de nomenclatura para ser utilizada a lo largo del capítulo.

Sanguino [47], en sus investigaciones realizó una revisión de los principales autores en dichas materias compilando varias acepciones de la palabra, las definiciones más significativas para estos términos fueron:


DATO: “Elemento o cantidad conocida que sirve de base para la resolución de un problema”. “Principio en el que se asienta una discusión”. “Elemento o base para la formulación de un juicio”. “Lo que se presenta a la conciencia como inmediato, no construido o no elaborado”.

“Elemento de información o representación de hechos o de instrucciones, en forma apropiada para el almacenamiento, procesamiento o transmisión por medios automáticos”.


INFORMACION: “Acto o efecto de informar (se), informe”. “Datos acerca de alguien o de algo”. “Comunicación o noticia traída al conocimiento de una persona o del público”. “Instrucción, dirección”. “Conocimiento amplio y bien fundamentado, resultante del análisis y combinación de varios informes”. “Según la teoría de la información, medida de reducción de la incerteza, sobre un determinado estado de cosas, por intermedio de un mensaje (en este sentido, información no debe ser confundida con significado y presentarse como función directa del grado de originalidad, imprevisibilidad y valor sorpresa del mensaje, siendo cuantificada en bits de información)”.


CONOCIMIENTO: “Acto o efecto de conocer”. “Idea, noción”. “Noticia, ciencia”. “Práctica de vida, experiencia”. “Discernimiento, criterio, apreciación”. “Conciencia de sí mismo, acuerdo”. “En el sentido más amplio, atributo general que tienen los seres vivos de regir activamente el mundo circundante, en la medida de su organización biológica y en el sentido de su supervivencia”.

De forma sintética una primera aproximación podría ser la siguiente: los datos están localizados en el mundo y el conocimiento está localizado en agentes (personas, organizaciones,...), mientras que la información adopta un papel mediador entre ambos conceptos.


Hay que reconocer que, lo que fluye entre agentes distintos nunca es conocimiento como tal, sino datos (información). Es posible aproximar el conocimiento de dos agentes que comparten los mismos datos; pero debido a sus experiencias anteriores y a las diferencias en el modo de procesar los datos (modelos mentales, modelos organizacionales), nunca tendrán las mismas tendencias para la acción, ni para estados idénticos de conocimiento. Sólo podemos conseguir aproximaciones, ya que el contexto interno y externo de un agente siempre es diferente a otro. Esto es así, porque el conocimiento es información puesta dentro de un contexto (experiencia).

En definitiva, los datos una vez asociados a un objeto y estructurados se convierten en información. La información asociada a un contexto y a una experiencia se convierte en conocimiento. El conocimiento asociado a una serie de habilidades personales se convierte en sabiduría, y finalmente el conocimiento asociado a una organización se convierte en Capital Intelectual. [48]

Páez Urdaneta, por su parte, para su definición acude a la llamada pirámide informacional que está formada por cuatro niveles, la que se muestra a continuación:



--INTELIGENCIA--

------CONOCIMIENTO------

---------INFORMACIÓN---------

--------------------DATOS--------------------


Cantidad

.

La representación de estos cuatro conceptos en la pirámide implica una jerarquización definida por las variables calidad vs. cantidad. Este autor propone el concepto de información como materia asociada a la definición de datos.

Datos: Registros iconónicos, simbólicos (fonémicos o numéricos) o sígnicos (lingüísticos, lógicos o matemáticos) por medio de los cuales se representan hechos, conceptos o instrucciones.

Por el contrario, otros autores, expresan que los datos en sí, carecen de significado y no tienen uso.

Igualmente, cuando Páez Urdaneta habla de información se refiere a su propuesta de información como significado.

Información: Datos o materia informacional relacionada o estructurada de manera actual o potencialmente significativa.

Debons sostiene que: “.... información es el proceso pragmático de interacción con el mundo ambiental que la rodea. Es el resultado de estar consciente, de estar vivo”.

Al enunciar, Páez Urdaneta el concepto de conocimiento lo asocia a la información como comprensión.

Conocimiento: Estructuras informacionales que, al internalizarse, se integran a sistemas de relacionamiento simbólico de más alto nivel y permanencia.

En el caso de inteligencia habla de información como oportunidad.

Inteligencia: Estructuras de conocimiento que siendo contextualmente relevantes, permiten la intervención ventajosa de la realidad.

A su vez, Davenport y Prusack (1998) definen datos como “un conjunto de hechos distintos y objetivos, relativos a eventos”. Resaltan además que “en un contexto organizacional, los datos son utilitariamente descritos como registros estructurados de transacciones”. Los datos apenas registran el hecho, sin proveer ningún juicio de valor o interpretación.

Lo que diferencia a los datos de la información es la dinámica, que entra en las organizaciones, formal o informalmente y es susceptible de variadas interpretaciones. El significado de la información depende de la utilidad que esta incorpore y de la percepción y la necesidad de quien la reciba.

Llegando a la dificultad conceptual de abordar nuevos tópicos sobre gestión del conocimiento, Spender (2001), cree que parte de la referida dificultad responde a que el conocimiento es “un término fluido y difícil de ser definido”. Indica también que el conocimiento posee características que son convencionales y otras no convencionales como “la extensión y contextualización que lo transforman en un bien público, además de las características que le permiten ser comprado y vendido, pudiendo así, ser un bien privado”.

Sveiby (1998)[8] al responder a la pregunta “¿Qué es conocimiento?” afirma que no existe consenso, ni aceptación de modo general, de ninguna definición de la palabra.

Refuerza también los variados significados que la palabra conocimiento tiene en diferentes lenguas y que la definición dependería del contexto donde se aplicara. Afirma que el conocimiento debería tener cuatro características:

· Es tácito: porque los conceptos cambian o se adaptan a la luz de las experiencias de los individuos.

· Es orientado a la acción: porque posee la cualidad dinámica de generar nuevos conocimientos y superar los antiguos.

· Está sustentado por reglas: porque la creación de patrones en el cerebro, con el paso del tiempo, permiten actuar con rapidez y eficacia, de forma automática, en situaciones inconcebibles.

· Está en constante cambio: porque el conocimiento puede ser distribuido, criticado y aumentado.

El Programa General de la UNESCO define a la información como la forma tangible de comunicar conocimiento, coincidiendo ambos términos, por primera vez, en una definición de alcance internacional.

Al respecto se puede afirmar que existe una estrecha relación entre información y conocimiento, incluso durante mucho tiempo se han concebido como sinónimos. Jesse Shera contribuyó a la distinción entre ellos afirmando que informar es un proceso, una actividad, y conocer es un estado mental, de tal forma que el conocimiento es el estado de conocer. ... “El conocimiento es todo lo que un ser ha aprendido o asimilado – valores, hechos o información – y organizado de acuerdo a aquellos conceptos, imágenes o relaciones que ha podido dominar...”. [49]

La información posee una naturaleza física, objetiva y tangible; el conocimiento es subjetivo y no manipulable físicamente, es una abstracción mental. La información es la forma tangible del conocimiento, es producto y base de la producción del conocimiento.

En resumen, la información es la materia prima y el conocimiento es el recurso mental mediante el cual se agrega valor. El aumento de valor de los productos y servicios debe efectuarse a partir de un conocimiento expresado como información que incide en los diferentes resultados a saber como reducción de plazos, mayor precisión, etc.


· Valor Agregado.


Uno de los enfoques más interesantes, en torno a estos aspectos, se relaciona con el modelo de agregación de valor formulado por el destacado especialista norteamericano Robert S. Taylor en múltiples artículos y en una obra que constituye obligada consulta para cualquier especialista[9]. [50]

El postulado fundamental del enfoque de agregación de valor de Taylor, se fundamenta en la transferencia de información como respuesta intensiva a un proceso humano, tanto en las actividades formalizadas a las que llamamos sistemas, como en el uso y usos de la información que son salidas de estos sistemas. El enfoque vital del modelo de Taylor, se destaca por la concepción de estar conducido por el usuario.

El concepto de valor añadido se establece a partir del conjunto de procesos que tienen esa característica (de agregarle valor) a un producto o servicio, como se observa en las siguientes figuras que ilustran este concepto de valor agregado, en los distintos niveles de la pirámide informacional:

· Los datos pueden, mediante procesos organizacionales, ser agrupados, clasificados, formateados, etc. Cada uno de estos procesos le va agregando valor y los convierten en información.

· La información, mediante procesos de análisis como: separación, evaluación, validación, comparación, entre otros, que le agregan valor la convierten en conocimiento informativo.

· El conocimiento informativo, modificado mediante procesos evaluativos que agregan valor como: opciones, ventajas y desventajas, pasa a constituir conocimiento productivo, denominado por Páez Urdnaneta, como inteligencia.

· El conocimiento productivo, debido a procesos decisionales de agregación de valor, como el planteamiento de metas, el compromiso, la negociación o selección se transforma en un principio que conduce a la acción.

Estos procesos de agregación de valor llevan a la superación del nivel informacional de un individuo, lo que equivale a decir, que en la medida que se sube de nivel en la pirámide se obtiene información de mayor valor en términos de análisis de contenidos.

El conocimiento como recurso estratégico.

Los conceptos claves que se han derivado de las tres palabras protagonistas de la sociedad del conocimiento son: Aprendizaje Organizativo, Capital Intelectual y Gestión del Conocimiento.

· El Aprendizaje Organizativo.

La mayoría de los activos intangibles suelen estar basados en la información, el aprendizaje y el conocimiento. Es en este punto donde podemos enlazar la teoría de recursos y capacidades con el aprendizaje organizativo. A través del aprendizaje individual y de procesos de captación, estructuración y transmisión de conocimiento corporativo, podemos llegar a hablar de aprendizaje organizativo.

El aprendizaje organizativo es el enfoque subyacente que da sentido y continuidad al proceso de creación de valor o de intangibles. El aprendizaje, en suma, es la clave para que las personas y las organizaciones puedan ser más inteligentes, memorizando y transformando información en conocimiento. Podemos asociar a este enfoque los conceptos de “organizaciones inteligentes”, “organizaciones que aprenden”(learning organizations). [51]

Este enfoque permite aumentar las capacidades de una organización, es decir, es un medio para que la empresa pueda resolver problemas cada vez más complejos. Cuando una serie de personas empiezan a trabajar en grupo, al principio se suelen producir problemas de coordinación, cuando pasa un tiempo, se van afinando los procesos y cada vez se realiza mejor la tarea. Esto es aprendizaje organizativo, aprender juntos a resolver problemas con una efectividad determinada. [52]


En la organización, la gestión del conocimiento:

Se utiliza para el logro de la interacción de conocimiento producto a que la utilización de los mapas ayuda los grupos de desarrollo de productos y servicios a manipular centenares de ideas en breve tiempo, reagrupándolas en un pequeño número de direcciones conceptuales y a lanzar iniciativas de nuevos productos y servicios.

Este instrumento de pensamiento y comunicación tiene capacidad:

· De ahorrar enormes cantidades de tiempo.

· De involucrar un nivel más profundo de intelecto más velozmente.

· De unificar y compactar los grupos hacia la solución delos problemas.

· De conducir a la verdadera autoridad intelectual, tan fugaz (como bien saben todos los trabajadores del talento).
Como resultado de la actividad cognitiva con los mapas conceptuales, los empleados se encuentran:
· Involucrados por su comprensión y actitud en las iniciativas de cambio estratégico y de actividad de la empresa.

· En condiciones de reexaminar y comprender los datos e información que se encuentran en la base de la necesidad de cambio.

· Obligados a tratar de comprender y colaborar con los otros miembros del grupo en crear nuevo conocimiento acerca de los clientes, de la concurrencia, y sobre cualquier cambio que sea necesario para alcanzar el éxito
· En condiciones de desarrollar conclusiones que sean importantes para la empresa. Estas conclusiones las comparten todos en la organización, desde el presidente al empleado de primera fila.
· En condiciones de determinar el propio rol en el funcionigrama de la empresa y de individuar inmediatamente qué es necesario hacer para alcanzar el triunfo para ellos mismos y para la empresa.

Ejemplos de la utilización de Knowledge Manager.

Un método muy simple es hacer escribir los conceptos de seguido, aquellos que se considera los más importantes. Cuando alguien sugiere una idea a incluir en el mapa, ésta toma cuerpo, no cae o se disuelve como en una discusión de mesa, ni siquiera termina por ser relativamente confundida entre otras propuestas. En su lugar, cada concepto o idea encuentra su lugar en el mapa. Todos los participantes construyen un mapa que refleja su comprensión colectiva del problema que se enfrenta.

La construcción de un mapa en general ayuda el equipo a adquirir una mayor comprensión e identificación del problema. Los elementos se exponen en modo reticular o jerárquico, que despierta la atención al conocimiento conceptual, no al conocimiento específico.

Es posible también llegar a descubrir que los elementos, o las posibles soluciones, son más de cuantos cada participante pensara. Como resultado, la creación del mapa obliga al grupo a asumir un modo de elaboración paralela que permite una reducción significativa del tiempo de investigación.

Una vez creados los conceptos y establecidas las relaciones necesarias, el grupo puede crear nuevos dominios de conocimiento, también relevantes al problema. El conocimiento puede ser añadido, conectado y descritos los detalles para los conceptos importantes. El mapa pudiera inclusive ser ya muy grande. Al final pudiera ser necesario un "administrador" que se ocupe del mantenimiento para mejorar la legibilidad del mapa. Es posible tener centenares de conceptos en el mapa, interconectados.

Otros equipos pueden agregar sus mapas para integrar las distintas áreas y someter a todos una visión general de cómo está organizado el conocimiento. En las organizaciones con sedes distribuidas en el territorio, es posible hacerlo electrónicamente, con el mapa ya desarrollado e verlo simultáneamente en diversas localidades. En lugar de simplemente oír palabras, o ver "cabezas parlantes" en una videoconferencia, el conocimiento compartido de los mapas conceptuales permite el desarrollo de modelos cognitivos que generan comprensión inmediata, a los cuales podemos referirnos después, cuando hace falta.

Importancia de la Intranet. Confección de una página Web.

Una de las herramientas innovadoras en este contexto es lo que se conoce como Intranet, red de comunicación dentro de una organización. Mediante ella, se pueden intercomunicar todos los miembros de la organización para lograr un mejor desempeño de sus funciones y procesos.

Las principales ventajas que se obtienen al utilizar la Intranet son: facilidad para compartir archivos, utilización del correo electrónico, otros medios de comunicación y la obtención de un mejor servicio de impresión. Inclusive, si la organización cuenta con conexión a Internet se amplían las posibilidades, pues puede estar en contacto con otras localidades remotas en el resto del país o del mundo. La utilización de la Intranet es muy importante y en estos tiempos puede ser la diferencia

Antes de plantearse el desarrollo de una Intranet, tanto para una gran empresa o para un pequeño grupo de trabajo, nunca debe tratarse como una plataforma de trabajo sino como una herramienta para éste.

Por todos es conocido que las Intranets aportan un valor sin precedentes a la distribución de la información, la automatización de los grupos de trabajo y el acceso a la información corporativa. Luego, es importante aprovechar la experiencia intelectual individual de todos los miembros de la organización y tenerla disponible para su utilización global. Los usuarios pueden crear y manejar sus propios contenidos.


· Evidencias históricas demuestran desde la antigüedad que el conocimiento se ha edificado en la praxis diaria del individuo, respondiendo a sus necesidades, intereses y actitudes según el contexto histórico, económico, social en el cual se desarrolle. La evolución epistemológica del conocimiento ante un universo tecnológico abre paso, en la sociedad de nuestros tiempos, a un nuevo enfoque en el que el conocimiento adquiere valor estratégico: la sociedad del conocimiento.

· Las teorías de la gerencia han evolucionado de un enfoque mecanicista y estático a un enfoque dinámico en constante interacción con el medio, el cual el hombre modifica a través de su espectro de saberes. Por tanto, el recurso humano se ha convertido en la principal fuente de ventajas competitivas sostenibles en el tiempo, facilita la toma de decisiones en las organizaciones dado el paradigma actual del saber, la inteligencia y el talento.

· El surgimiento de un nuevo enfoque organizacional: la gestión del conocimiento, es una propuesta con más alcance que la gestión de la información; aunque esta última sigue siendo un elemento imprescindible dentro de las organizaciones, la gestión del conocimiento propicia la creación de un entorno que facilite la conversión de información en conocimiento y de este conocimiento en nueva información, es decir, propicia el desarrollo de una cultura organizacional.

· La implementación y uso de herramientas y técnicas en función de actualizar la gestión del conocimiento en las organizaciones de este nuevo milenio impone nuevos retos, porque constituyen la única forma de que estas logren adaptación y competitividad.


Fuente: Anónimo - Iglesia Católica

sábado, 18 de octubre de 2008

La Fórmula 1, no solo el Hombre y la Máquina. Las TICs como árbitro entre estas dos partes.

Si alguien posee los últimos avances tecnológicos son las empresas que están detrás de la Fórmula

1. Se dedican a investigar y probar alta tecnología que, primero aplican a sus intereses, y después, trasladan al gran público consumidor de automóviles. La tecnología de las grandes escuderías automovilísticas es la base para que los conductores de ciudad y carreteras se sientan más seguros en sus automóviles.

En cuestión de automóviles, también los ingenieros informáticos tienen un papel preponderante. En el caso de la fórmula 1, no basta con tener una buena marca de automóvil, un ejército de mecánicos y ni siquiera un piloto superdotado, aunque estas cosas, por supuesto, ayudan.

Pero, ¿qué hace un ingeniero informático en pista? Su trabajo consiste en modificar, analizar e interpretar los cambios que sufre un automóvil para luego transmitírselos al piloto. Y es por ello que la computación juega un papel preponderante para tener un equipo triunfador.

Uno de los elementos básicos en este trabajo son los sensores: tienen multitud de aplicaciones como la medición de los parámetros del motor, la temperatura del aceite, agua y la presión. Los sensores del chasis miden movimientos del acelerador y del volante, la velocidad de los neumáticos (para calcular la velocidad actual del coche), los movimientos laterales y lineales (para medir la fuerza G en las curvas y en momentos de aceleración o frenada), los movimientos de los amortiguadores (para calcular la suspensión y el cambio en la actitud del coche en relación con su referencia en la pista).

  1. En los entrenamientos de los viernes, antes de la carrera oficial del domingo, se descargan los datos telemétricos de la pista. Los sensores previamente han registrado cada sacudida, choque o vibración.

  2. Se envían por e-mail archivos a la fábrica. Esa misma noche el equipo elabora un análisis.

  3. El ordenador simula los efectos en una plataforma hidráulica que hace las veces de pista. El programa empareja los movimientos de la plataforma con las distancias.

  4. Los ingenieros hacen los ajustes durante la noche, en función de los tests de telemetría. El coche es conducido por una pista "virtual" a fin de mejorar los resultados.

  5. Los ajustes son reenviados por e-mail al equipo de competición en el país donde se encuentren, con el fin de que todo esté preparado para las eliminatorias que se realizan los sábados.

  6. Los neumáticos por supuesto también tienen un papel fundamental. Marcas como Michelín, Goodyear o Bridgestone Firestone se juegan su prestigio en cada carrera y a la postre las ventas a los consumidores. En este caso también, sus ingenieros informáticos hacen parte de la gran clave del éxito.

. Direcciones de interés .

Web oficial del piloto brasileño Ayrton Senna. Desde esta página se puede acceder al Instituto Ayrton Senna, una organización sin ánimo de lucro dedicada a los niños, a la educación y a la erradicación de la pobreza: http://senna.globo.com/ (en portugués).

En esta página se encuentran programas informáticos que simulan la conducción de la F1: http://www.formula1.inode.es/gp2/gp3.htm

Página con software para los aficionados a las carreras de coche: http://software.starmedia.com/Juegos/Arcade_y_Accion/Carreras

Programa emulador de coches: http://juegomania.metropoli2000.net/
emuladores/snes/f1_pole_position.html

Portal dedicado a la F1: http://www.f1-live.com/f1-2001/es/index.shtml

Información sobre la Fórmula Cart, que se corre en los Estados Unidos: http://cart.infomotores.com/

Pilotos y escuderías de la Fórmula Cart: http://www.terra.com.mx/cart/pilotos_y_escuderias

Escuderías de la F1: http://www.coches.net/magazine/formula1/
escuderias/index.cfm

Página principal de la marca de neumáticos Goodyear: http://www.goodyear.com/ (en inglés).

Página de neumáticos con sede en México de la Bridgestone Firestone: http://www.firestone.com.mx/

Página de neumáticos Michelín: http://www.michelin.es/

Telemetría en los coches de competición: http://www.geocities.com/mcascella/telemetria.html

Página oficial de la Federación Internacional del Automóvil: http://www.fia.com/ (en inglés y francés).

Federación Interamericana de Touring y Automóvil Club: http://www.fitac.org/institucional.htm

Supercomputación, la Fórmula 1 de la Informática

Al igual que en el mundo del motor, la informática es un sector que necesita un banco de pruebas en donde se lleven a cabo experiencias reales muy exigentes. La Supercomputación es el tejido ideal para ello dado que supone la ejecución de complejos programas de cálculo científico que requieren de las mayores prestaciones en informática.

El sector de la supercomputación, también llamado cálculo científico o HPC (high performance computing) abarca los centros de proceso de datos tanto públicos como privados y que dan servicio a entidades investigadoras, Universidades y proyectos de iniciativa privada.

Es un segmento de mercado de pequeño valor porcentual respecto a toda la informática, pero es de importancia capital para los fabricantes de hardware y software. La Supercomputación tiene un valor crítico y estratégico. Los avances en la supercomputación de hoy se convertirán en avances de la informática comercial del mañana.

Centrándonos en las tecnologías de supercomputación, se crea un ciclo continuo de innovación que permite la evolución de las tecnologías de la información. En las últimas décadas, las arquitecturas de servidores y redes así como el empleo de Internet han sido previamente empleados y optimizados en HPC y su empleo masivo ha llegado posteriormente con el éxito conocido de todos.

Actualmente se emplean los llamados Superordenadores en casi todas las áreas investigación científica, en meteorología, exploración de hidrocarburos, defensa e industria automovilística y aeroespacial. Pero poco a poco se extiende el ámbito a otras aplicaciones, por ejemplo, recientemente las entidades dedicadas al mercado de capitales también emplean estas supermáquinas para analizar el comportamiento de productos financieros.

Muchas empresas y organismos públicos se ven influenciadas en mayor o menor medida por este segmento de la tecnología informática. A raíz de avances informáticos se han llegado incluso a crear nuevos subsectores empresariales como el de la Biotecnología que congrega empresas de todo el mundo en torno a la investigación en genética y proteomica, llevados a cabo por superordenadores o redes internacionales de cálculo bioinformático.

Las tendencias tecnológicas de este sector se centran en la compartición de recursos informáticos. Dado lo elevado de las inversiones necesarias en infraestructuras (los centros actuales contienen miles y decenas de miles de procesadores) se intenta interconectar los CPD’s entre sí en las denominadas GRID o redes de intercambio de servicios de computación.

Además se implantan ordenadores estándares (siempre más económicos y fáciles de mantener) en los llamados clusters o granjas de servidores, que corren normalmente con software abierto sobre sistema operativo LINUX, ampliamente conocido por los profesionales del sector y con costes muy bajos. Con estos sistemas informáticos se abordan los retos de crecimiento continuo (escalabilidad) así como la flexibilidad y manejabilidad que se requieren para adaptarse a los distintos proyectos de investigación actuales.

Aunque los ordenadores actuales son muy rápidos y potentes, manejando fluidamente grandes volúmenes de datos a través de redes de comunicaciones de última generación, la realidad es que aún queda mucho por mejorar puesto que los científicos abordan desafíos hasta ahora impensables, el llamado “gran challenge application” o aplicaciones software para las cuales todavía no se ha construido el superordenador capaz de soportarlo. Ello obliga a la industria informática y de telecomunicaciones a una continua innovación y a grandes inversiones en nuevos materiales y dispositivos que al final beneficiarán a toda la comunidad de usuarios informáticos.

Grandes fabricantes ponen en marcha programas de colaboración con entidades científicas de todo el mundo, con financiación cruzada y con transferencia de tecnología de forma que se puedan abordar retos muy significativos. En España, proyectos como ORIGENES, destinado a desvelar el origen de la vida, o iniciativas en BioInformática y Proteomica así como en ciencias medioambientales, son un ejemplo de los acuerdos llevados a cabo con centros de investigación públicos y en donde participan científicos con ingenieros de los laboratorios de las corporaciones multinacionales de informática.

Una completa y sólida infraestructura de cálculo impulsa proyectos de la empresa privada con recursos locales. Es fundamental la inversión en I+D para no quedarse en la cola del mundo civilizado, es fundamental por tanto disponer también de algunos buenos F1 informáticos.

(Fuente: http://www.tendencias21.net/supercomputacion/index.php?action=article&id_article=694510)

Estimados lectores, como siempre espero sus comentarios sobre estas innovaciones detalladas arriba.

lunes, 13 de octubre de 2008

Auditorías de Seguridad en las áreas de Tecnologías de la Información y las Comunicaciones.


Auditorías de Seguridad en las TICs.

1. Hardware.
2. Aplicaciones del software.
3. Plan de contingencias y de recuperación.


• Verificar que existan los planes, políticas y procedimientos relativos a la seguridad dentro de la organización.
• Confirmar que exista un análisis costo / beneficio de los controles y procedimientos de seguridad antes de ser implantados.
• Comprobar que los planes y políticas de seguridad y de recuperación sean difundidos y conocidos por la alta dirección.
• Evaluar el grado de compromiso por parte de la alta dirección, los departamentos usuarios y el personal de informática con el cumplimiento satisfactorio de los planes, políticas y procedimientos relativos a la seguridad.
• Asegurar la disponibilidad y continuidad del equipo de cómputo el tiempo que requieran los usuarios para el procesamiento oportuno de sus aplicaciones.
• Asegurar que las políticas y procedimientos brinden confidenciabilidad a la información manejada en el medio de desarrollo, implantación,

operación y mantenimiento.

• Verificar que exista la seguridad requerida para el aseguramiento de la integridad de la información procesada en cuanto a totalidad y exactitud.
• Constatar que se brinde la seguridad necesaria a los diferentes equipos de cómputo que existen en la organización.
• Comprobar que existan los contratos de seguro necesarios para el hardware y software de la empresa (elementos requeridos para el funcionamiento continuo de las aplicaciones básicas).
• Confirmar la presencia de una función responsable de la administración
de la seguridad en:
• Recursos humanos, materiales y financieros relacionados con la tecnología de informática.
• Recursos tecnológicos de informática.
Esto debe verificarse con los responsables de la seguridad de informática, con los responsables del centro de cómputo, de comunicaciones y usuarios que el auditor considere pertinentes.

1. Comparar proyectos con la planeación de auditoria.
2. Concertar citas con el personal que se va a entrevistar.
3. Revisar el formulario correspondiente y ver la conveniencia de actualizarlo
según necesidades específicas del negocio.
4. Ratificar y formalizar las fechas de entrevistas y visitas.
5. Efectuar las entrevistas y visitas necesarias para cubrir los puntos de este
módulo.
6. Elaborar un borrador con las principales conclusiones y recomendaciones.
7. Revisarlo con el encargado de la función de auditoria en informática.
8. Clasificar y almacenar la información de soporte en dispositivos de
almacenamiento seguros.
9. Revisar el borrador con el responsable del proyecto por parte de las áreas
evaluadas.
10. Elaborar y documentar formalmente las conclusiones y recomendaciones
finales de esta revisión.
11. Anexar esta información al documento que contendrá el informe final.

1. Formalizar el apoyo de la alta dirección al auditor en informática con el fin
de brindarle las facilidades necesarias para la ejecución de su trabajo.
Algunas acciones de apoyo serian:

• La alta dirección hace del conocimiento de las áreas por auditar que
algunas de sus funciones serán revisadas y se requiere su apoyo.
• Proporcionar la información requerida por el auditor en informática.
• Externar comentarios y sugerencias al auditor.
2. Conocimiento del auditor acerca de los aspectos que se evaluarán en este
módulo; esto básicamente se logra mediante una capacitación teóricopráctica
en los temas que se relacionan con la auditoria en informática.
Técnicas para obtener y evaluar la información

Aspectos por evaluar:

1. ¿Hay políticas y procedimientos relativos al uso y protección del hardware
de la organización?
1.1 Si existen, indique si están formalmente identificados los siguientes
aspectos de seguridad:
• Administración del hardware.
• Micros, minis y supercomputadoras
• Tecnología de comunicaciones, redes, etc.
• Cuantificación del hardware.
• Descripción del hardware (características básicas)
• Distribución del hardware (ubicación física)
• Áreas de informática: departamentos usuarios y áreas locales y remotas.
• Registro del hardware instalado, dado de baja, en proceso de
adquisición, etc.
• Uso del hardware: desarrollo, operación, mantenimiento, monitoreo y
toma de decisiones.
• Funciones responsables del control del hardware.
• Otros.
• Procedimientos y controles de seguridad para la evaluación, selección y
adquisición de hardware.
• Políticas enfocadas a comprobar que el software adquirido cubra los
siguientes puntos:
•Módulos de seguridad: acceso al hardware (llaves de seguridad, por
ejemplo); uso del hardware (facilidades de monitorear la operación) y
bitácoras de uso del hardware (quién, cuándo, para qué, entre otros
puntos).
• La actualización del hardware:
• Políticas orientadas a confirmar que el hardware actualizado cubra los
siguientes puntos:
• Autorización del hardware por medio de la justificación de la
actualización
• Impacto de la implantación del hardware en el medio de informática:
aplicaciones, software y costos
• Implicaciones de control en la implantación y uso del hardware
actualizado
• Reemplazo del hardware.
• Políticas para verificar que el hardware reemplazado cubra los siguientes
puntos:
• Autorización por medio de la justificación del reemplazo.
• Impacto de la implantación en el medio de informática: aplicaciones,
hardware y costos.
• Implicaciones de control en la implantación y uso del hardware nuevo.
2. En cuanto al equipo de soporte, se han de tener los siguientes datos:
• Localización física de:
• Aire acondicionado
• Equipo
• Equipos contra Incendios
• Otros

3. ¿La ubicación física del equipo de cómputo en el edificio es la más
adecuada pensando en los diversos desastres o contingencias que se
pueden presentar (manifestaciones o huelgas, inundaciones, incendios,
otros)?
Verificar si el edificio cuenta con instalaciones de escape en casos de
emergencia.
4. ¿Hay procedimientos que garanticen la continuidad y disponibilidad del
equipo de cómputo en caso de desastres o contingencias?
4.1 Si es así, ¿están documentados y difundidos formalmente?

Indique si se cuenta con controles y procedimientos para:

• Clasificación y justificación del personal con acceso a los centros de
cómputo del negocio y a las oficinas donde se encuentra papelería o
accesorios relacionados con informática.
• Restringir el acceso a los centros de cómputo sólo al personal
autorizado.
• Definición y difusión de las horas de acceso al centro de cómputo.
• Uso y control de bitácoras de acceso a los centros de cómputo.
• Definir la aceptación de la entrada a visitantes.
• Manejo de bitácoras especiales para los visitantes a los centros de
cómputo.
Comprobar el cumplimiento de estos controles y procedimientos.
6. ¿Existe personal de seguridad encargado de la salvaguarda de los equipos
de cómputo de la empresa?
6.1 ¿Fue capacitado el personal para este trabajo o simplemente sigue las
normas de seguridad que se aplican en bancos o industrias?
6.2 Si no se cuenta con tal personal, ¿a qué área o función pertenecen los
responsables de proteger físicamente el equipo?
Analizar el grado de confianza que brinda dicho personal a la protección
de estos activos de la empresa.
7. Mencione si existen políticas relacionadas con el ingreso y salida del
hardware que aseguren al menos lo siguiente:
• Que la entrada y salida del hardware sea:
• Revisada (contenido, cantidad, destino)
• Justificada (compra, pruebas, reemplazo, devolución, dado de baja,
otros)
• Aprobada por el responsable de informática que va a recibirlo
• Registrada (responsables, hora, motivo, etc.)
• Devuelta (comparar con la fecha estimada de salida)
• Devuelta en las mismas condiciones de entrada.
• Devolución autorizada por medio de un responsable de informática.
8. ¿Existe alguna función de investigación, auditoria o seguridad que se
dedique a la evaluación permanente de software, métodos, procedimientos,
etc., sugeridos en el mercado (como conferencias, publicaciones, asesores,
investigaciones) para la implantación de nuevas acciones relativas a la
seguridad que brinden continuidad en la operación y cuidado de los recursos
relacionados con informática?
8.l Si es así, ¿cuáles son las actividades principales que se asignan a esta
tarea?
8.2 En caso de que lo anterior no ocurra, ¿qué acciones garantizan la
adecuación de los controles y procedimientos de seguridad en el
momento de implantar nuevas tecnologías?

Aspectos clave por evaluar:

1. ¿Se tienen políticas y procedimientos relativos al uso y protección del
software existente?

1.1 Si las hay, indique silos siguientes aspectos de seguridad están
formalmente identificados:
• Administración del software
• Sistemas operativos, utilerías, paquetes, etc.
• Cuantificación del software (original y copias)
• Descripción (por original)
• Distribución (en qué equipos o dispositivos de almacenamiento
secundarios se encuentra, en qué lugar físico se localizan: áreas del
negocio, bancos, etc.)
• Registro del software instalado, dado de baja, en proceso de adquisición, etc.)
• Uso del software (tipo de uso, responsables de su uso, entre otros puntos)
• Procedimientos y controles de seguridad para la evaluación, selección y adquisición de software.
• Políticas para verificar que el software adquirido cubra los siguientes puntos:
• Módulos de seguridad para acceso al software, uso y bitácoras de uso (quién, cuándo, qué, etc.)
• La actualización del software.
• Políticas para confirmar que el software actualizado cubra los siguientes puntos:
• Autorización del mismo por medio de la justificación de la actualización.
• Impacto de la implantación en el medio de informática, aplicaciones, hardware y costos.
• Implicaciones de control en la implantación y uso del software actualizado.
• Reemplazo del software actual por otro.
• Políticas para asegurar que el software reemplazado cubra los siguientes puntos:
• Autorización por medio de la justificación del reemplazo.
• Impacto de la implantación en el medio de informática: aplicaciones, hardware y costos.
• Implicaciones de control en la implantación y uso del software nuevo.

2. Diga si poseen políticas relacionadas con el ingreso y salida del software
que aseguren al menos lo siguiente:

• Que el software que salga de la empresa sea:
• Revisado (contenido, cantidad, destino)
• Esté registrado formalmente en la empresa
• Justificado
• Aprobado por el responsable de informática
• Registrado (quién y a qué hora lo sacó)
• Devuelto (comparar con fecha estimada de devolución)
• Devuelto en las mismas condiciones en que salió
• El personal esté comprometido formalmente a no hacer un mal uso del mismo (copiarlo, dañarlo, modificarlo, etc.)
• Que el software que ingrese a la empresa sea:
• Revisado (contenido, cantidad, destino)
• Justificado (evaluación, prueba o respaldo de las aplicaciones del
negocio)
• Aprobado por el responsable de informática
• Registrado (quién y a qué hora lo metió)
• Devuelto (Comparar con la fecha estimada de devolución)
• Devuelto en las mismas condiciones que tenía en la salida
• El personal esté comprometido formalmente a no hacer un mal uso del mismo (copiarlo, dañarlo, etc.)
3. En cuanto a las aplicaciones (sistemas de información) que se desarrollan en la empresa, ¿se tienen los controles y procedimientos necesarios para garantizar la seguridad mínima requerida?
3.1 En caso de que existan, ¿al menos contemplan lo siguiente?
• Procedimientos de llenado de documentos fuente
• Procedimientos de uso de la computadora
• Encendido e inicialización del equipo
• Reinicialización del equipo en caso de fallas
• Manejo de bitácoras de uso de la computadora
• Monitoreo de uso de la computadora
• Niveles de acceso (perfil de usuarios) a los módulos de:
• Captura
• Actualización
• Consulta
• Generación de reportes
• Respaldos
• Otros
• Procedimientos de uso de los módulos de:
• Captura
• Actualización
• Consulta
• Generación de reportes
• Respaldos
• Otros

4. ¿Existen procedimientos que verifiquen que la construcción (programación), prueba e implantación de los controles y procedimientos de seguridad sean formalmente aprobados antes de que se utilice el sistema?
5. ¿Participan funciones de control o evaluación de sistemas, como auditores o consultores, en la aprobación de los controles de seguridad de los sistemas antes de que sean formalmente aprobados por los usuarios?
5.1 Si es así, ¿en qué etapas del desarrollo participan?
5.2 ¿Se involucran en todos los proyectos de desarrollo?
6. Mencione si los controles aseguran que el sistema contemple los procedimientos necesarios para que la información manejada en el mismo sea total, exacta, autorizada, mantenida y actualizada.
6.1 ¿Existen procedimientos para comprobar que los totales de los reportes de validación del usuario concuerden con los totales de validación del sistema computarizado?
6.2 ¿Los documentos fuente por capturar llevan preimpresos sus números consecutivos o se los asigna el usuario? Si ocurre lo último, ¿hay alguno de los controles mencionados a continuación dentro del sistema que valide la no repetición o exclusión de algún número consecutivo?
• Control de disquetes, cintas, papelería, etc.
• Control de todos los movimientos o transacciones rechazados por el sistema (comprobar que los datos erróneos para el sistema sean registrados, corregidos, alimentados correctamente y actualizados).
• Entendimiento y buen uso de los mensajes del sistema, como manejo de errores.
• Uso de bitácoras por parte de usuarios y personal de informática como pistas para auditoria.
Revisar todos los posibles controles que debe asumir el sistema y que corresponden también al usuario.
6.3 ¿Cómo se aseguran que durante la operación de! sistema se den los controles mencionados en el punto 6?
Comprobar que existan cifras de control manuales o automatizadas antes, durante y después de la operación de los sistemas que aseguren exactitud, totalidad, etc., de los datos.
6.4 ¿Cómo se aseguran que al estar el sistema en operación se cumplan formal y oportunamente los procedimientos de seguridad contemplados en el desarrollo del mismo?

a) Con una auditoria de sistemas
• Con revisiones de consultores externos
• Con revisiones del personal de informática
• Analizar si las revisiones son planeadas o surgen de la administración
por crisis.
• ¿Cómo se aseguran de que los manuales de usuario, técnicos y de operación cumplan con los estándares de la metodología de CVDS y de que sean completos?

6.6 ¿Cómo se aseguran de que el personal que va a utilizar estos manuales se encuentre capacitado en el uso de los mismos?
6.7 ¿Se documentan todas las debilidades derivadas de la revisión del cumplimiento de controles y procedimientos de seguridad durante la operación de los sistemas?

6.8 Si es así, indique silos clasifican en:
• Debilidades en los procedimientos de entrada, proceso o salida
• Entendimiento o manejo del equipo donde se encuentran los sistemas
• Dificultades en la comunicación usuarios-informática para el manejo de nuevos requerimientos o cambios a los sistemas
• Otros

7. En cuanto al mantenimiento de sistemas señale si se cuenta con un procedimiento formal para asegurar que los cambios efectuados en los sistemas sean:
• Justificados (apoyo a los requerimientos de usuarios)
• Descritos (objetivos, función, etc.)
• Probados en el área de desarrollo antes de ser trasladados al área de producción
• Revisados por funciones de control (auditoria de sistemas, consultores, entre otros)
• Aprobados por los responsables correspondientes antes de ser puestos en operación
• Registrados en bitácoras de cambios
• Actualizados en la documentación correspondiente como manuales de usuario, técnicos y de operación
• Implantados los controles de seguridad de dichos cambios
• Otros

8. ¿Hay un procedimiento formal para asegurar que los requerimientos de los departamentos usuarios sean registrados, justificados, programados, probados e implantados de acuerdo con los estándares de la metodología del CVDS?
Conviene asegurarse de que este punto esté relacionado estrechamente con el séptimo punto.
9. ¿Cómo se da seguimiento a los cambios de los sistemas sugeridos por la función de informática? Asegúrese de que si estos cambios van a ser implantados en los sistemas, sigan la pauta del séptimo punto.
10. ¿Existen procedimientos que permitan identificar con claridad las responsabilidades en cuanto al uso del sistema y equipo de cómputo donde será implantado y operado?
11. ¿Qué procedimiento se utiliza para liberar formalmente el sistema?
11.1 Indique si se registran todos los sistemas liberados y aprobados formalmente por los usuarios, auditores, función de informática, consultores, etc.
12. Una vez que el sistema está en operación, ¿qué funciones verifican que los controles y procedimientos relativos a la seguridad se cumplan de manera satisfactoria?
13. ¿Los responsables de modificar los programas fuente del sistema enoperación están bien definidos?
13.1 Si es así, ¿cómo se aseguran de que sólo ellos tengan acceso a dichos programas?
13.2 ¿Cómo se aseguran que sólo se modifiquen programas autorizados en términos formales y que se documenten en los manuales correspondientes?
13.3 ¿Cómo se aseguran los responsables de estos cambios de incluir los controles de seguridad?
14. ¿Hay un registro de los archivos existentes en cada sistema en operación (maestros y de movimientos)?
14.1 Si es así, ¿existe un procedimiento que asegure que sólo sean accesados por personal autorizado?
14.2 ¿Se tiene algún procedimiento para especificar cuáles funciones se actualizarán, consultarán o eliminarán información de los archivos de los sistemas en operación?
14.3 ¿Están clasificados los procedimientos para actualizar archivos en línea o en lote?
15. ¿Se cuenta con procedimientos de respaldo de los programas Fuente, de la documentación y de los archivos en operación?
16. ¿El respaldo de la información se encuentra en el mismo edificio?
17. ¿Sucede lo mismo con el equipo de cómputo?
18. ¿Se tienen controles para que sólo personal autorizado tenga acceso a dichos respaldos?

Aspectos clave por evaluar:

1. ¿Considera que tanto la alta dirección, usuarios como el personal de informática están conscientes de que todos los recursos relacionados con la informática son activos del negocio y deben protegerse de una manera formal y permanente? ¿Por qué?
1.1 ¿Cuáles de los siguientes recursos vinculados con informática son más importantes para la organización y cuáles tienen más y mejores métodos de protección para seguir operando y apoyando los objetivos del negocio en condiciones optimas?
Comprobar que los recursos considerados básicos, importantes o necesarios tengan los métodos de seguridad para prevenir y enfrentar contingencias; en caso de que no existan, se podrá observar que dichas consideraciones son más teóricas que prácticas. En cuanto a los recursos de
importancia mínima o desconocida, se preguntará el por qué de tales afirmaciones.
1.2 ¿Existen planes de contingencia y de Recuperación de operaciones para casos de contingencia o desastres?
1.3 Indique si dichos planes contemplan los siguientes aspectos:
• Red de comunicaciones (RC)
• hardware
• Software, aplicaciones, datos
• Recursos humanos
• Lugares físicos donde se localizan los recursos anteriores
• Otros
1.4 Si es así, ¿fueron difundidos formalmente en toda la organización? ¿Fueron elaborados por terceros, personal de informática, usuarios o se trató de un proyecto donde intervinieron varias áreas del negocio?
2. En el proceso de planeación de contingencias y recuperación y de su implantación en la empresa, indique cuáles fueron las tareas realizadas, cuáles están pendientes, cuáles en desarrollo y quiénes son sus responsables:
1. Definición de metas y objetivos del plan
2. Evaluación e identificación de riesgos
3. Elaboración de acciones, políticas y procedimientos por tipo de riesgo
4. Documentación del plan
5. Aprobación y difusión del plan
6. Simulación del plan
7. Actualización del plan
en desarrollo T = terminada 1— no iniciada
2.1 ¿Se han presentado contingencias que hayan sido enfrentadas con el plan de contingencias y de recuperación diseñado para la empresa? ¿Con qué resultados?
2.2 Si no tienen este plan, ¿qué acciones han tomado para enfrentar tales eventualidades y quiénes han sido los responsable de ejecutarlas?
3. Señale si poseen una función responsable de seguridad que verifique y de seguimiento a los siguientes puntos:
• Actualización formal de los planes
• Capacitación a los usuarios y personal de informática en cuanto a la aplicación de los procedimientos contemplados en los planes
• Supervisión y orientación en la ejecución de simulacros
• Asignación de los responsables de la ejecución de las actividades contempladas en los planes para:
• Prevención de contingencias.
• Apoyo a la empresa en casos de desastres o de contingencias con el fin de reducir en lo posible las pérdidas humanas, equipos, datos, etc.
• Reinicio inmediato o en el tiempo mínimo posible de las operaciones de la empresa.
• Otros.
4. ¿Las funciones involucradas en dichos planes los han probado? ¿Contemplan todas las contingencias o desastres probables en la(s) localidad(es) donde tiene instalaciones la organización (huelgas, diluvios, robos, incendios, otros)?
6. ¿Los planes cubren los procedimientos necesarios para prevenir los elementos causales o restaurar los primordiales?
7. ¿Se clasificó el orden en que reiniciará la operación de cada aplicación de acuerdo con las prioridades y estrategias del negocio?
8. ¿Existen acuerdos con empresas o proveedores que tengan la misma tecnología (o que sea la más compatible)?
9. Mencione si se cuenta con contratos legales que aseguren los siguientes elementos de la función de informática y de los departamentos usuarios:
• Personal (de informática y usuarios), equipos de cómputo, software, aplicaciones, telecomunicaciones, edificios o instalaciones, entre otros.
10. ¿Existe algún procedimiento formal para efectuar todo el proceso de evaluación, selección y contratación de los seguros? ¿Cuáles son dichos procedimientos?
10.1 ¿Quiénes llevaron o están llevando a cabo la negociación de los seguros?
10.2 ¿En este proceso intervienen expertos en evaluación de riesgos (administrador, responsables de seguridad, auditores en informática, especialistas o expertos financieros)?
10.3 ¿Qué plazos de cobertura marcan estos seguros?
10.4 ¿Se tienen previstas acciones legales para prevenir posibles incumplimientos por parte de las compañías aseguradoras?
11. ¿Existe una clasificación de los elementos prioritarios para que la operación de los sistemas básicos no se interrumpa por un desastre o contingencia?
11.1 Indique si la clasificación contempla los siguientes elementos: equipo de cómputo, archivos, programas fuentes, lenguajes de desarrollo, sistemas operativos, documentación, personal, entre otros
Hay que comprobar si existe un programa de capacitación formal para que el personal usuario y de informática tome conciencia de la importancia que tiene el concepto de seguridad y la oportuna y correcta aplicación de los controles y procedimientos relativos a dicho concepto.

Metodología
Técnicas
Herramientas
Capacitación y actualización

• Detectar la existencia, formalización y conocimiento de la planeación de informática en las áreas clave del negocio
• Verificar que la planeación de informática haya sido evaluada y aprobada por la alta dirección.
• Comprobar que la planeación de informática se enfoque en el soporte de los objetivos, planes, políticas y estrategias de la empresa.
• Evaluar el grado de compromiso por parte de la alta dirección con informática para determinar si el apoyo que brinda a la planeación de informática es el adecuado.
• Confirmar la existencia de una metodología en informática.
• Investigar si existen técnicas y herramientas de productividad para el
desarrollo del plan.
• Comprobar que exista un proceso formal de capacitación para el entendimiento y manejo satisfactorio de la metodología de planeación en informática.
• Evaluar el grado de cumplimiento de la metodología, técnicas y herramientas en el proceso de planeación de informática.
• Comprobar si la alta dirección, los responsables de las áreas usuarias y los responsables de informática se han involucrado en el proceso de planeación de informática.
• Verificar si se da cumplimiento a los proyectos surgidos del plan de informática.
• Evaluar el grado de dominio que tiene el personal de informática sobre la metodología, técnicas y herramientas de productividad que utilizan para el desarrollo del plan de informática.
• Valorar el nivel de estandarización que tiene la metodología de planeación de informática con respecto a las aceptadas comúnmente en el mercado (fases, tareas, actividades, productos terminados, funciones y responsabilidades, revisiones, aseguramiento de calidad, entre otros
puntos).
En caso de que personal externo realice la planeación de informática, asegurar que se cumplan al menos las consideraciones mencionadas; además, obtener evidencia de la seriedad y confidencialidad de dichos asesores, por el tipo de información que se maneja en este proceso.

1. Comparar proyectos con la planeación de auditoria.
2. Concertar citas con el personal que se va a entrevistar.
3. Revisar el formulario correspondiente y ver la conveniencia de actualizarlo según necesidades especificas del negocio.
4. Ratificar y formalizar las fechas de entrevistas y visitas.
5. Efectuar las entrevistas y visitas necesarias para cubrir los puntos de este módulo.
6. Elaborar un borrador con las principales conclusiones y recomendaciones.
7. Revisarlo con el encargado de la función de auditoría en informática.
8. Clasificar y almacenar la información de soporte en dispositivos de almacenamiento seguros.
9. Revisar el borrador con el responsable del proyecto por parte de las áreas evaluadas.
10. Elaborar y documentar las conclusiones y recomendaciones finales de esta revisión.
11. Anexar esta información al documento que contendrá el informe final.

1. Formalizar el apoyo de la alta dirección al auditor en informática con el fin de brindarle las facilidades necesarias para la ejecución de su trabajo.
Algunas acciones de apoyo serian:
• La alta dirección hace del conocimiento de las áreas por auditar que algunas de sus funciones serán revisadas y se requiere su apoyo.
• Proporcionar la información requerida por el auditor en informática.
• Externar comentarios y sugerencias al auditor.
2. Conocimiento del auditor acerca de los aspectos que se evaluarán en este módulo; esto básicamente se logra mediante una capacitación teóricopráctica en los temas que se relacionan con la auditoria en informática.

Técnicas para obtener y evaluar la información (véase tabla H. 1)

Aspectos clave por evaluar:
1. ¿Existe en su área una metodología para la planeación de informática?
1.1 ¿Esta metodología contempla qué hacer, quién debe hacerlo y cuándo debe hacerse durante los proyectos de planeación de informática?
1.2 Si es así, indique si también abarca los pasos y lineamientos requeridos para la siguiente clasificación de proyectos:

• Planeación de sistemas de información por desarrollar e implantar (corto, mediano y largo plazos).
• Desarrollo e implantación de sistemas de las diferentes áreas del negocio.
• Compra e implantación de aplicaciones de mercado.
• Adaptación de aplicaciones adquiridas a externos (aplicaciones de mercado).
• Proyectos de telecomunicaciones.
• Proyectos de investigación tecnológica (hardware, software, telecomunicaciones, entre otros).
• Proyectos de evaluación y selección de proveedores de productos y servicios.
• Proyectos de desarrollo e implantación de sistemas estratégicos de información para toma de decisiones.
• Proyectos de auditoría y evaluación de informática.
• Proyectos de desarrollo e implantación de planes de contingencia y recuperación.
• Proyectos de capacitación o actualización ejecutiva, técnica y de usuarios.
• Rediseño de sistemas existentes.
• Desarrollo e implantación de sistemas integrales en el negocio.
• Aseguramiento de calidad.
• Otros relacionados con la función de informática.
1.3 ¿Esta documentada formalmente dicha metodología?
1.4 Si es así, indique si cubre cada uno de los siguientes puntos: *
• Un panorama general de la metodología
• Equipos de trabajo sugeridos según el tipo de proyecto
• Etapas de la metodología
• Tareas de cada etapa
• Secuencia de las etapas y tareas
• Responsables e involucrados en cada etapa y tarea.
• Productos terminados por cada etapa o tarea.
• Requerimientos técnicos y administrativos para el cumplimiento de cada
tarea.
• Revisiones formales e informales sugeridas para cada etapa.
• Duraciones estimadas de cada etapa del proyecto.
• Consideraciones para proyectos especiales.

* El auditor en informática debe verificar que la documentación de la metodología contemple los diferentes proyectos mencionados en la pregunta

2. ¿Cómo se aseguran un compromiso formal, un desarrollo y seguimiento eficientes, así como la aprobación final de los proyectos si no se cuenta con una metodología que contenga lo mencionado en las preguntas 1.3, 1.4 3. En caso de contar con una metodología de planeación de informática, ¿ésta fue desarrollada por personal de informática de la empresa, se compró o se
renta cuando se requiere?
3.1 ¿Se capacitó al personal de desarrollo en el entendimiento y uso práctico de la misma?
3.2 Indique si la capacitación fue impartida de manera formal por grupos de trabajo o individualmente y con casos prácticos o proyectos piloto.
3.3 ¿Se evaluó el grado de asimilación de la metodología? ¿Cómo?
3.4 Si no se capacitó al personal en el uso de la metodología, ¿cómo se asegura su entendimiento y uso eficiente durante los proyectos?
¿Desde cuándo están usando dicha metodología?
3.6 ¿Se capacita al personal de desarrollo de reciente ingreso a la empresa en el entendimiento y uso de la metodología? ¿Se contemplan los puntos mencionados en la pregunta 3.2?
3.7 ¿Se actualiza la metodología cuando es necesario?
3.8 ¿Qué actividades de investigación o consulta se realizan para formular cambios o adaptaciones en la metodología?
3.9 ¿Se documentan formalmente estos cambios?
3.10 ¿Quién aprueba los cambios a la metodología?
3.11 ¿Capacitan formalmente al personal en lo referente a la actualización de la metodología?
4. ¿Existe una congruencia de la metodología de planeación de informática con las metodologías recomendadas como .estándares en cl mercado?
¿Cómo se aseguran de que las metodologías de planeación de informáticacompradas o rentadas a externos satisfagan los requerimientos del negocio?
6. Mencione cuáles son las etapas, tareas, productos y los responsables del proceso de planeación de informática que se lleva en la empresa (verificar la congruencia con los estándares metodológicos más aceptados).
6.1 Las etapas mencionadas deben cubrir al menos los siguientes
aspectos:
• Estudio de la situación actual y tendencias de los aspectos culturales, tecnológicos y económicos, entre otros.
• Análisis de la competencia: fortalezas, debilidades, imagen, aspectos financieros, etc.
• Expectativas y grado de satisfacción de los clientes: productos, servicios, expectativas, oportunidades.
• Evaluación de la situación actual del negocio: aspectos culturales, tecnológicos y económicos, sistemas de información, fortalezas y debilidades.
• Análisis de los planes del negocio: metas, objetivos, planes tácticos y estratégicos, etc..
• Evaluación de cada una de las áreas del negocio en aspectos relativos a sistemas de información, tecnología, proyectos estratégicos, entre otros.
• Análisis y formulación de las áreas de oportunidad para apoyo a la alta dirección: factores básicos de éxito, proyectos estratégicos, inversiones, expectativas, apoyo requerido de informática, etc.
• Elaboración y formulación del plan de informática.
• Proyectos tácticos y estratégicos que cubran los siguientes puntos:
• Sistemas de información, administración de la función, equipos de cómputo, telecomunicaciones, auditoría en informática, investigación de la tecnología de informática, evaluación y adquisición de productos y servicios, proyectos conjuntos alta dirección — informática, proyectos conjuntos entre usuarios e
informática, etc.
Aspectos clave por evaluar:
1. ¿El personal de informática sabe cuáles son las técnicas requeridas para el desarrollo, seguimiento y documentación de las etapas de planeación de informática?
1.2 ¿Existen dichas técnicas para la planeación de informática en la empresa?
1.3 ¿Se capacita formalmente al personal de desarrollo de sistemas en el uso y aplicación de estas técnicas?
1.4 ¿Se capacita al personal recién contratado en el manejo de las mismas?
1.5 ¿Qué procedimiento se utiliza para la capacitación del personal de desarrollo en el uso de metodologías y técnicas?
2. Explique cuáles de las técnicas siguientes son usadas en el desarrollo de sistemas por su empresa:

Listas de verificación
Entrevistas
Listas de verificación de aseguramiento de calidad

Control de proyectos
Análisis organizacional (sistemas de negocio)
Análisis costo/beneficio
Documentación
Diagramación
Modelación de datos y procesos
Investigación
Manejo de equipos de trabajo
Otros (especifique)

3. ¿Quiénes y cómo determinaron cuáles eran las técnicas requeridas para el desarrollo e implantación de sistemas de información del negocio?
311 ¿Su uso está generalizado en la empresa? ¿Cómo se aseguran deque se aplique?

Aspectos clave por evaluar:

1. ¿Existe una clasificación de las herramientas de productividad utilizadas por su empresa en la planeación de informática? (Entiéndase por herramientas de productividad los medios computarizados — hardware o
software— y manuales
— instrumentos de medición, diagramación, etc.— que utiliza el personal de
informática en la planeación.)
1.2 Si es así, ¿podría indicar cuáles de los siguientes utilizan en su
empresa?

Procesadores de palabras
Hojas electrónicas
Graficadores
Diagramadores
Presentadores
Generadores de aplicaciones
Generadores de bases de datos
Ingeniería de software
Índices de productividad
Otros (especifique)

1.3 ¿Su uso está generalizado en la empresa? ¿Cómo se aseguran de
que se aplique?

Aspectos clave por evaluar;
1. Mencione si existen procedimientos formales para capacitar al personal de planeación de informática (o puestos equivalentes) en:
• Entendimiento y aplicación de metodología de planeación de informática.
• Técnicas para efectuar las etapas de la planeación de informática.
• Herramientas de productividad requeridas en la planeación de informática.
1.2 ¿Se documentan dichos procedimientos?
1.3 ¿Hay un responsable directo de elaborar, actualizar, documentar y
definir estos procedimientos de capacitación?
1.4 ¿Cómo se asegura el cumplimiento oportuno de tales procedimientos?
1.5 Si existen, ¿al menos contemplan lo siguiente?
• Calendarios de los cursos.
• Responsables de impartir los cursos (personal externo o interno).
• Puestos o funciones que requieren dichos cursos.
• Costos estimados de los cursos.
• Beneficios esperados de cada curso.
• Parámetros de medición para asistentes y expositores.
• Material requerido para cada curso.
• Responsables de la organización de los cursos.
2. Si no se tiene un proceso formal de capacitación, ¿cómo se da seguimiento al entendimiento, uso y actualización oportuna de la metodología, técnicas y herramientas de productividad requeridas por parte del personal durante la planeación de informática?
3. ¿El responsable de informática está consciente de la importancia que tiene la actualización y mejoramiento continuos del personal de desarrollo de sistemas de información para la implantación de soluciones del negocio?
4. Cuando intervienen terceros (personal externo) en proyectos de planeación de información, ¿cómo se aseguran de que la metodología, técnicas y herramientas de productividad que usan cubran por lo menos los estándares (o normas) mínimos de la empresa? ¿Qué se hace si la
organización no tiene dichos estándares definidos?

El auditor en informática ha de recomendar al menos los siguientes puntos:
a) Documentar formalmente los siguientes aspectos relevantes del negocio:
• Misión
• Objetivos
• Estrategias
• Oportunidades
• Fortalezas
• Debilidades
• Amenazas
• Planes a corto, mediano y largo plazos
• Políticas
• Funciones primordiales
• Información básica para dichas funciones
• Requerimientos
• Otros

E Dirigir el plan de informática a las estrategias y objetivos del negocio orientados a planes de corto, mediano y largo plazos.
F Que sea aprobada formalmente por la alta dirección.
G Participación de los usuarios en la definición, formalización y aprobación del plan.
H Darle seguimiento formal a dicha planeación elaborando y revisando reportes específicos.

I Utilizar siempre una metodología formal de planeación de informática. La metodología debe cubrir los aspectos más relevantes de las metodologías habituales.
K La función de informática ha de desarrollar los proyectos con base en el plan maestro de informática.
L Debe existir una función de administración de los proyectos de informática
para el seguimiento del plan de informática, actualización del plan, etc.
M Todos los proyectos de informática tendrán un análisis costo / beneficio.
N Realizar estudios de manera periódica para tener:
• Una evaluación de la eficiencia en el uso de la tecnología informática
• Una evaluación de la infraestructura tecnológica actual.
• Una evaluación de los sistemas de información.
• Una evaluación de los datos de los sistemas.
• Una evaluación de la función de informática (aspectos administrativos).
Con base en los puntos mencionados, resolver el siguiente cuestionario:
1. ¿Se tienen estrategias claras y documentadas para la implantación de los proyectos de la planeación?
2. ¿Están bien definidas las funciones y responsabilidades de los recursos involucrados en cada proyecto?
3. ¿Están conscientes la alta dirección e informática del compromiso que se deriva de la planeación?
4. ¿Está consciente la alta dirección del apoyo que requiere la función de informática para el logro satisfactorio de cada proyecto de la planeación?
¿Se tiene contemplada la participación de asesores externos en el desarrollo de ciertos proyectos?
6. ¿Se utilizó algún procedimiento formal para la selección del mejor asesor?
7. Indique si se cuenta con políticas y procedimientos formales para proyectos
de:
• Evaluación y adquisición del hardware y software.
• Desarrollo de sistemas de información.
• Telecomunicaciones.
• Intercambio electrónico de datos.
• Automatización de oficinas.
• Automatización de procesos de producción.
• Otros.

Espero les sea de su utilidad. Saludos y espero sus comentarios.
Related Posts Plugin for WordPress, Blogger...

ENTRADAS MAS POPULARES

ÚLTIMAS PUBLICACIONES

Recibe todas las actualizaciones de este blog. Sólo haz clic en el botón Me Gusta de Facebook.

Muchas gracias!!!

Powered By | Blog Gadgets Via Blogger Widgets