Sei sulla pagina 1di 9

ORGANIZACIÓN: P. N. U. D.

Programa de Naciones Unidas para el Desarrollo -


Gobierno autónomo Catalán

TITULO:
LAGNIKS ( Red y Sistema latinoamericano de Información y Conocimiento sobre
Gobernabilidad y Desarrollo Humano )

TIPO DE DOCUMENTO
Articulo

REFERENCIA BIBLIOGRÁFICA
Mario Pérez-Montoro Gutiérrez. Gestión del conocimiento y documentación digital:
un estudio de caso .Ubicado en: "Hipertext.net", núm. 1, 2003.
<http://www.hipertext.net>.

UBICACIÓN GEOGRÁFICA
Latino América

JUSTIFICACIÓN
El proyecto se presenta como un intento de mejorar la gobernabilidad en un área
tan desfavorecida como la de Latinoamérica y el Caribe utilizando para ello una
iniciativa de Gestión del Conocimiento fundamentada, entre otras cosas, sobre los
recursos y las ventajas que se obtienen a partir del tratamiento documental y, en
gran medida, digital de la información.

Las comunidades adscrita al PNUD no es capaz de rentabilizar plenamente, ya


sea en el orden político, académico o incluso en el económico, el conocimiento
que reside en este contexto y mejorar de esa manera la gobernabilidad de los
países implicados. Para paliar este grave problema se diseña y se intenta
implementar el programa de Gestión del Conocimiento LAGNIKS.
OBJETIVOS
El objetivo del programa de Gestión del Conocimiento: convertir todo el
conocimiento involucrado en la comunidad (el individual, el representado en
documentos y los datos) en conocimiento representado en documentos que fuera
accesible a todos los miembros de la comunidad, convertirlo, en definitiva, en
conocimiento corporativo.

El objetivo de LAGNIKS es el fortalecimiento de las capacidades de


gobernabilidad democrática para el desarrollo humano en los países
latinoamericanos a través de la facilitación del acceso y la utilización de
información y conocimiento relevante a los actores, gubernamentales y no
gubernamentales, del desarrollo. Con este objetivo, se pone a disposición una
amplia y variada información referente a los principales temas y dimensiones de la
gobernabilidad democrática en América Latina. Entre otros aspectos, se incluyen
indicadores cuantitativos y cualitativos, experiencias, buenas prácticas, textos
jurídicos, websites, publicaciones e investigaciones sobre los países de la región.

El PNUD tiene como objetivo mejorar el desarrollo humano de la región


Latinoamérica y Caribe favoreciendo la gobernabilidad de los países que la
integran. El favorecer y consolidar la gobernabilidad de un país consiguiendo que
todos (sin restricción) los actores (gobiernos, sindicatos, medios de comunicación,
etc.) que intervienen en menor o mayor medida en el desarrollo político de ese
estado tengan acceso a todo el conocimiento que necesitan para intervenir
adecuadamente en la gobernabilidad del mismo.

METODOLOGÍA
1. Fase de análisis
En esta primera fase de análisis se desarrollaron las dos operaciones que siempre
han de realizarse antes de poder implementar cualquier programa de Gestión del
Conocimiento: la auditoría de la información y el mapa de conocimiento.

Comencemos describiendo brevemente la primera de esas dos operaciones. En la


auditoría de la información se intentó identificar cuál sería la información necesaria
para cubrir el objetivo que se perseguía con el proyecto, en este caso el desarrollo
humano de la región Latinoamérica y Caribe favoreciendo la gobernabilidad de los
países que la integran.

Tras un primer estudio se pudo comprobar que dentro de esa información había
que recoger distintos y variados tipos de ítems. Así, por ejemplo, había que
identificar información de tipo socioeconómico (El PIB de Argentina en 1982, la
tasa de paro de Chile en 1999, la proporción de maestras existente en el sistema
de enseñanza en Colombia, el impacto de la dictadura chilena en el desarrollo de
la industria siderúrgica del país, etc.), información política (intención de voto en
Nicaragua justo antes de sus últimas elecciones, el papel de las elites agrarias en
el proceso de democratización de El Salvador, etc.) o, incluso, información de tipo
histórico sobre esa extensa región.

La identificación de esa información se produjo a partir de una interacción con la


comunidad involucrada en el proyecto. Para esa interacción se utilizaron distintos
canales. Así, por ejemplo, se realizaron una serie de encuestas entre los
miembros del PNUD y entre algunos actores políticos implicados en el proceso de
gobernabilidad. Estas encuestas ayudaron a conocer, según esos entrevistados,
cuál podría ser esa información necesaria para mejorar la gobernabilidad de sus
países.

También se enviaron correos electrónicos personalizados en los que se pedía la


opinión sobre el tema a un nutrido conjunto de especialistas académicos
(principalmente profesores e investigadores universitarios) y de expertos prácticos.
Pero la forma más efectiva de obtener la identificación de esa información fue las
entrevistas personales que se realizaron con algunas personas clave de la
comunidad implicada, como, por ejemplo, dirigentes sindicales, directores de ONG
o, incluso, miembros (del pasado más reciente o actualmente en ejercicio) de
gobiernos nacionales.

Pasemos ahora a describir brevemente cómo se realizó la segunda de las


operaciones, el mapa del conocimiento. Si con la auditoría éramos capaces de
identificar la información que idealmente era necesaria para cubrir el objetivo del
PNUD, con el mapa del conocimiento intentamos identificar el conocimiento
involucrado dentro de la organización y las personas que lo poseen. O dicho de
otra manera: se intentó identificar qué información de esa que se había definido
como necesaria ya se encontraba en la comunidad y quién era el que la poseía.
Un estudio de ese conocimiento nos permitió constatar los siguientes hechos. En
primer lugar, pudimos comprobar que mientras que existía una gran cantidad de
conocimiento representado en documentos (monografías, artículos científicos,
informes técnicos, etc.), una parte importante del conocimiento relacionado con el
tema de la gobernabilidad residía exclusivamente en la cabeza de las personas
que lo poseían.

En segundo lugar, que ese conocimiento acostumbraba a seguir un ciclo de vida


bastante estandarizado. En este sentido, el conocimiento era creado por un
experto, después se capturaba representándolo en un documento, más tarde ese
conocimiento se compartía con otras personas mediante la distribución del
documento donde se encontraba representado y, en un último movimiento, este
conocimiento compartido se reutilizaba por parte de los miembros de la comunidad
habilitando la posibilidad de crear nuevo conocimiento a partir del mismo y
reactivándose de nuevo, así, el ciclo de vida.

Por último, pudimos comprobar que, debido al hecho de que una parte importante
de ese conocimiento no se encontraba representado (sólo existía en la cabeza de
las personas) y al hecho de que la fase del ciclo de vida que coincide con la acción
de compartir e intercambiar el conocimiento estaba marcadamente debilitada, el
aprovechamiento final de este conocimiento por parte de la comunidad era muy
escaso y poco adecuado.
2. Fase de diseño Una vez que tuvimos claro cuál era la información necesaria
para cubrir el objetivo marcado por el PNUD y qué parte de esa información se
encontraba en la comunidad y quién era el que la poseía, pasamos a la fase de
diseño. En esta nueva fase realizaron las siguientes operaciones: se planificó el
proceso de gestión de contenidos cognitivos, la estructura de la comunidad de
Gestión del Conocimiento y el diseño conceptual de los recursos documentales.

Comencemos describiendo brevemente cómo se planificó el proceso de gestión


de contenidos dentro de este proyecto. Después de un breve estudio se decidió
que, para poder gestionar con garantías el conocimiento involucrado, era
necesario que éste, al margen de seguir su curso natural, siguiese de una manera
controlada un ciclo de vida predeterminado dentro del proyecto. Ese ciclo
constaría de los siguientes estadios: un primer estadio de creación, otro de
preparación y otro de mantenimiento.

En el primer estadio, el de creación, el experto se encargaría de la elaboración de


un nuevo conocimiento. Como resultado último, el experto sería el responsable de
representar este conocimiento en un documento y de enviar este resultado al IIG.
El principal problema que nos encontramos para poder estandarizar este estadio
fue conseguir que los especialistas y los expertos, además de crear
conocimientos, se comprometieran de una manera gratuita a representar sus
aportaciones en documentos y los cediesen para su gestión al IIG [7] . Para
intentar solucionar este problema se buscó una solución imaginativa.

Por un lado, para incentivar a los especialistas académicos se contrató un ISSN (


International Standard Serial Number ) de manera que cada documento donde
apareciera su conocimiento representado y que cediesen para su gestión al IIG
podría ser explotado académicamente en sus currículums personales como si lo
hubieran sido aceptado para su publicación en una revista científica. Por otro lado,
para capturar a los expertos prácticos se recurrió a establecer acuerdos
institucionales con los gremios de consultores y con las principales empresas de
consultoría.

En el segundo estadio, el de preparación, se comenzaba por una revisión de los


documentos cedidos realizada por expertos del IIG. Esta revisión se efectuaba en
una doble dirección. Por un lado se evaluaba la pertinencia o no de los contenidos
de esos documentos confirmándose su suficiente valía y su aportación al
inventario del conocimiento. Por otro, se realizaba una evaluación del posible
riesgo asociado al documento.

Es decir, se confirmaba que no se incumpliese ninguna norma de confidencialidad


y que no incluyese información sensible que pudiese provocar algún tipo de
problema. Una vez efectuada la revisión, se pasaba a realizar un tratamiento del
contenido por parte de los analistas o expertos del IIG. En esta línea, el analista
clasificaba el documento a partir de un lenguaje controlado, realizaba un resumen
y un comentario del documento y decidía si se incluía en alguna guía de lectura [8]
ya existente o si se creaba una guía nueva a partir de ese documento.

Finalmente, efectuada la revisión y el tratamiento, se pasaba a la publicación de


los documentos enviándolos, junto a su registro, a un repositorio [9] central para
que pudiesen ser accesibles a los usuarios mediante los recursos de intenet. Por
último, en el tercer estadio, el de mantenimiento, se decidía qué hacer con el
documento pasado cierto tiempo. Si el contenido del documento continuaba
siendo valioso para la comunidad, este se mantenía en el repositorio. Si, en
cambio, el contenido del documento dejaba de tener valor, se evaluaba la
posibilidad de extraerlo del repositorio.

Abandonemos el proceso de gestión de contenidos y pasemos ahora a describir


como se configuró la comunidad de Gestión del Conocimiento. Por comunidad de
Gestión de Conocimiento debe entenderse el conjunto de personas, y la jerarquía
correspondiente, que será el encargado de desarrollar el proyecto.

En un primer momento, los roles y las responsabilidades dentro de esta


comunidad se asignaron principalmente a trabajadores y colaboradores del IIG. En
este sentido, el gerente del instituto asumió el rol de Director de Gestión del
Conocimiento ( Chief Knowledge Officer ), siendo la persona responsable máxima
del desarrollo del proyecto. De la misma manera, y integrados
presupuestariamente a LAGNIKS, se contrataron seis (de momento) analistas
expertos en gobernabilidad, competentes, principalmente, en el campo del
derecho, la economía y la ciencia política. Estos analistas asumieron diferentes
roles.

Por un lado, se les atribuyo la responsabilidad de ser los Expertos en la Materia (


Subject Matter Experts ) y los Gerentes de Riesgo ( Risk Managers ), haciéndose
cargo de la tarea de evaluar y validar la calidad y el riesgo del conocimiento que
llegaba cedido al IIG. Y, por otro, se les asignó el rol de Editores de Contenidos (
Content Managers ), encargándose del tratamiento del contenido (clasificación,
resumen, comentarios, guías de lectura) y de las decisiones sobre el
mantenimiento del conocimiento representado dentro del sistema. La comunidad
de Gestión del conocimiento se completó con personal de soporte para la
implantación del proceso, principalmente un equipo de márketing y un nutrido y
consolidado equipo de informática, ambos piezas clave en el proyecto.

Pasemos ahora a describir brevemente la última de las operaciones realizadas en


esta fase: el diseño conceptual de los recursos documentales. Comencemos
recordando cuál era el objetivo del programa de Gestión del Conocimiento:
convertir todo el conocimiento involucrado en la comunidad (el individual, el
representado en documentos y los datos) en conocimiento representado en
documentos que fuera accesible a todos los miembros de la comunidad,
convertirlo, en definitiva, en conocimiento corporativo. Y, habiendo detectado tras
el análisis que el punto crítico del ciclo de vida natural del conocimiento se
encontraba en el fracaso asociado a la acción de compartir e intercambiar ese
conocimiento, el programa necesariamente tenía que incluir un recurso
documental, una base de datos (un repositorio), que permitiese dinamizar y
mejorar ese punto crítico.

El objetivo que se intentaba cubrir con la base de datos era triple. Por un lado, se
intentaba mejorar directamente la gestión (acceso, búsqueda, recuperación,
intercambio) del conocimiento ya representado en documentos. Por otro,
incorporar y facilitar la transformación del conocimiento individual que poseen los
especialistas y expertos en conocimiento corporativo.

Esa transformación se realizaba mediante dos operaciones que tenían como fruto
la representación de nuevo conocimiento, especialmente de tipo tácito, en el
repositorio. Los expertos y especialistas, además de representar en documentos
su propio conocimiento individual, realizaban guías de lectura (qué es lo que hay
que leer y en qué orden hay que hacerlo para introducirse en un tema) sobre
aspectos importante relacionados con la gobernabilad y comentarios críticos sobre
documentos ya existentes.

Esas guías de lecturas y comentarios resultantes se incorporaban a la base de


datos mejorándose de esta manera la gestión informativa de los mismos. Y, por
último, incorporar y facilitar la transformación de los datos en información y en
conocimiento estructurándolos y posibilitando las operaciones matemáticas y
estadística para la explotación de los mismos.

Teniendo en cuenta estos objetivos, y antes de pasar a la implantación informática


del recurso documental, había que realizar el diseño conceptual de la base de
datos que más tarde se desarrollaría. Siguiendo una metodología que ha sido
ampliamente y exitosamente testada [10] , se identificó la estructura conceptual de
una base de datos que integrara capacidades de tratamiento documental y
estadístico.

Para desarrollar esta estructura se eligieron dos modelos de registro -uno para los
documentos y otro para los indicadores- y una serie de recursos para poder
relacionar semánticamente los dos tipos de registro.
Para poder relacionar semánticamente los dos tipos de registro se tomaron una
serie de decisiones. Por un lado, se decidió crear un lenguaje controlado sobre el
tema de la gobernabilidad construido a partir de una serie de categorías. Ese
lenguaje presentaba las características de ser conceptualmente correcto (ya que
las categorías que lo formaban respetaban las restricciones conjuntistas que se le
suponen) y pragmáticamente útil (ya que en éste se recogen la mayoría categorías
temáticas en las que se puede dividir el tema de la gobernabilidad). Y, por otro, se
decidió incluir en los dos modelos de registro un mismo campo (etiquetado como
"Palabras clave") que se dotaba de contenido a partir de la combinación de las
categorías de ese lenguaje y que permitía la conexión semántica los dos tipos de
registro al habilitar la búsqueda y recuperación transversal y simultánea de
documentos e indicadores sobre un tema concreto.

A partir de esa planificación conceptual se desarrolló más tarde el diccionario de


datos, detallándose cada uno de los campos (su etiqueta, control de validación,
tipo de datos, indización, lengua, tratamiento documental y su dominio,
principalmente) que constituían los dos modelos de registro. Con ese diccionario
de datos se pretendía mejorar la calidad, la fiabilidad, la consistencia y la
coherencia de la información contenida en la base de datos y ofrecer el punto de
partida para poder crear con garantías una guía de diseño para los
implementadores informáticos del recurso documental, un libro de estilo para los
encargados de la actualización del repositorio y un manual de uso para los futuros
usuarios de la base de datos.

3. Fase de implantación
Una vez superadas las fases de análisis y diseño, se pasó finalmente a la fase de
implementación. En esta última etapa -que actualmente se encuentra en fase de
desarrollo-, se realizó la implantación del programa piloto y se planificó su
posterior migración al programa general de Gestión del Conocimiento en la
comunidad y se acometió también el desarrollo integral de las herramientas
tecnológicas.

Comencemos describiendo brevemente como se realizó la implantación del


programa piloto. Una vez superadas las fases anteriores, se decidió iniciar la fase
de implantación reduciendo y acotando la comunidad sobre la que implantar una
versión a pequeña escala del proyecto para poder evaluar previamente y de una
manera controlada el funcionamiento del mismo antes de abrirlo a la comunidad
completa de potenciales usuarios. En este sentido, se acordó que el personal del
IIG, junto a un reducido grupo de colaboradores, actuara como comunidad del
programa piloto.

A continuación, se activó la comunidad de Gestión del Conocimiento que había


sido decidida en la fase anterior, asignándole a cada uno de sus miembros las
tareas que le correspondía. Seguidamente, se comenzó a trabajar el ciclo de vida
de los contenidos a partir de un conjunto reducido de documentos que habían
aportado algunos especialistas y expertos, colaboradores habituales del IIG. El
resultado obtenido de este ciclo de vida controlado se fue paulatinamente
integrando en la base de datos que en paralelo se implementó a partir del sistema
informático que se describe a continuación. Esa misma reducida comunidad actuó
como eventuales usuarios, emitiendo un informe evaluativo sobre la utilidad,
ergonomía y consistencia del proyecto.

Pasemos ahora a detallar, finalmente, cómo se realizó la integración de las


herramientas tecnológicas. Hemos de comenzar señalando que, debido a la
especial naturaleza de la comunidad de Gestión del conocimiento en la cual se
intenta implementar el programa de Gestión del Conocimiento (la mayoría de sus
miembros no saben que pertenecen a la misma y no todos los miembros tienen
acceso directo a una red de ordenadores), no se pudieron utilizar muchos de los
recursos tecnológicos que normalmente suelen incorporarse en este tipo de
proyectos. En este sentido, por ejemplo, no se pudieron utilizar programas de
Work Flow o de Group Ware , y, sin ir más lejos, tampoco se pudo integrar todo
los recursos tecnológicos en una intranet corporativa.

Como alternativa, se decidió que se utilizaría como herramienta tecnológica


principal el sistema de gestión de bases de datos ORACLE integrado en un
entorno web y completado con un buscador y recuperador a texto completo.
ORACLE, al ser un sistema de gestión de base de datos de tipo relacional, ofrece
amplias posibilidades de explotación matemática y estadística de los datos
incluidos en los registros de los indicadores. Además, ese programa, al ser
completado con el buscador y recuperador a texto completo, permite también
optar a los beneficios de gestión informacional que nos ofrecen los sistemas
documentales o textuales.

El hecho de integrarlo en un entorno web abría la posibilidad de que el sistema


pudiese ser explotado a distancia y a voluntad mediante los beneficios digitales
que nos brinda la red.

Resuelto el tema de las herramientas tecnológicas, surgió un problema añadido:


no teníamos que olvidar que la mayoría de los usuarios potenciales del proyecto
no tenían a su disposición potentes ordenadores ni programario caro y sofisticado
(ORACLE, sin ir más lejos) con los que explotar los recursos cognitivos que se
ofrecían. Para solucionar ese problema se decidió que todas las operaciones
informáticas se llevarán a cabo en los aparatos informáticos del proyecto
LAGNIKS, reduciéndose al máximo el número de operaciones a realizar en los
ordenadores de los usuarios.
En este sentido, todo el sistema se diseñó para que funcionase incluso en el caso
en el que el usuario presentase las siguientes condiciones técnicas mínimas:
poder contar con un ordenador dotado de acceso (aunque fuese a partir del
teléfono convencional) a internet, de un procesador de textos ( Word , por
ejemplo), de un lector de ficheros PDF ( Acrobat , por ejemplo) y de un navegador.
De esta manera se reforzaba también el carácter altruista del proyecto y no se
reservaba exclusivamente para aquellos usuarios que tuvieran ciertos privilegios
informáticos (y, por tanto, económicos).

El grueso de las operaciones informáticas se realizaban en los tres potentes


servidores que se compraron para la ocasión y que se instalaron en la sede del
IIG. Estos tres servidores albergan el sistema creado con ORACLE (base de datos
y entorno de consulta web) y se dispusieron en una estructura de tres capas
conectados entre sí de la siguiente manera: un primer servidor A que alberga la
base de datos, un segundo servidor B que recibe (puede soportar hasta 350
entradas simultáneas) los registros de los analistas y expertos y los lanza para su
almacenamiento en el servidor A y un tercer servidor C que recibe las consultas de
los usuarios (puede soportar hasta 350 consultas simultáneas), las lanza al
servidor A y suministra a los usuarios las respuestas que se ofrecen desde la base
de datos del servidor A.
La presentación del proyecto LAGNIKS no quedaría completa si dejáramos sin
reflejar los aspectos relacionados con la seguridad del sistema informático. En
este sentido, para salvaguardar la integridad del sistema se tomaron una serie de
medidas concretas de seguridad. Por un lado, en el servidor A, además del disco
duro principal que alberga la base de datos, existe también un disco duro espejo
que se actualiza automáticamente después de que, desde el servidor B, se envíe
la entrada de un nuevo registro o la revisión de un registro ya existente.

Este disco duro espejo entraría a sustituir al principal en el caso de que éste
presentara algún tipo de problema. Por otro lado, cada día, cada semana y cada
mes se realiza una copia de seguridad de la base de datos en un disco duro
removible que se almacena en otro edificio ajeno al que alberga al servidor A. Por
último, se está estudiando la posibilidad de duplicar en Miami o New York
(concretamente en la sede de la ONU) [11] toda esta estructura informática
principal (los servidores dispuestos en tres capas) para facilitar y hacer más rápido
y dinámico de esta manera el flujo informático por internet en dirección hacia la
región de Latinoamérica y Caribe.

Potrebbero piacerti anche