Sei sulla pagina 1di 350

Libros de Cátedra

Análisis farmacéutico
María Guillermina Volonté
Pablo Quiroga (coordinadores)

FACULTAD DE
CIENCIAS EXACTAS
ANÁLISIS FARMACÉUTICO

María Guillermina Volonté - Pablo Quiroga


(coordinadores)

Cátedra Control de Calidad de Medicamentos


Área Ciencias Farmacéuticas – Departamento Ciencias Biológicas

2013
Volonté, María Guillermina

Análisis farmacéutico / María Guillermina Volonté y Pablo Quiroga; colaboradora María


Esperanza Ruiz ; Claudia Marano ; Patricia Retaco. - 1a ed. - La Plata : Universidad Nacional de
La Plata, 2013.

E-Book: ISBN 978-950-34-1036-3

1. Farmacología. I. Quiroga, Pablo II. Ruiz, María Esperanza, colab. III. Marano, Claudia,
colab. IV. Retaco, Patricia , colab. V. Título

CDD 615.1

Fecha de catalogación: 25/10/2013

Diseño de tapa: Dirección de Comunicación Visual de la UNLP

Universidad Nacional de La Plata – Editorial de la Universidad de La Plata

47 N.º 380 / La Plata B1900AJP / Buenos Aires, Argentina


+54 221 427 3992 / 427 4898
editorial@editorial.unlp.edu.ar
www.editorial.unlp.edu.ar

Edulp integra la Red de Editoriales Universitarias Nacionales (REUN)

Primera edición, 2013


ISBN 978-950-34-1036-3
© 2013 - Edulp
A la Universidad Nacional de La Plata
A nuestros alumnos
“La excelencia es el arte que se alcanza a través del
entrenamiento y del hábito,
nosotros somos lo que hacemos repetidamente,
la excelencia entonces, no es un acto, sino un hábito”
Aristóteles
ÍNDICE

Prólogo. Néstor O. Caffini 6


Capítulo 1. Introducción al Control de Calidad de Medicamentos.
María Guillermina Volonté
8
Capítulo 2. El Método Analítico en el Control de Calidad.
María Guillermina Volonté
30
Capítulo 3. Cromatografía en Capa Fina (TLC). Pablo Quiroga
56
Capítulo 4. Cromatografía Líquida de Alta Resolución (HPLC)
María Guillermina Volonté
78
Capítulo 5. Electroforesis Capilar. Pablo Quiroga
121
Capítulo 6. Métodos espectroscópicos aplicados al Análisis
Farmacéutico. María Guillermina Volonté
137
Capítulo 7. Métodos de Análisis Térmico. María Esperanza Ruiz
159
Capítulo 8. Determinación de Agua. Claudia Marano
186
Capítulo 9. Análisis Funcional. Patricia Retaco
200
Capítulo 10. La Prueba de Disolución. María Esperanza Ruiz
232
Capítulo 11. Uniformidad de Unidades de Dosificación.
Susana Gómez
262
Capítulo 12. Estabilidad de Drogas y Medicamentos.
María Guillermina Volonté
274
Capítulo 13. Ensayos Biológicos. Pablo Quiroga
300
Capítulo 14. Trazabilidad de Medicamentos. Pablo Quiroga
321
Anexo I. Respuestas a los Test de Autoevaluación
344
Los autores 348

 
PRÓLOGO

Jean Cocteau decía que escribir era un acto de amor. Y es probable que así
sea, porque difícilmente el escritor lo hace tan sólo para satisfacerse a sí
mismo. De todos modos el escritor de ficciones o de ensayos raramente llegue
a conocer a la mayoría de sus lectores, a diferencia del autor de un texto, que
seguramente tomará contacto con algunos de ellos (sus futuros alumnos).
Y este hecho le otorga características especiales al acto de escribir,
reafirmando que se trata de un acto de amor, como lo es la enseñanza en sí
misma, sea oral (presencial o virtual) o escrita.

Un libro de texto tiene destinatarios precisos y en las así llamadas “ciencias


duras” el autor subordina la redacción de cada frase a las premisas que
condicionan el ejercicio de la docencia en estas disciplinas: esto es, claridad y
concisión en la información que se brinda. El libro que coordinan los profesores
Volonté y Quiroga y en el que colaboran destacados docentes del área de
control de la calidad de medicamentos de la Facultad de Ciencias Exactas es
un fiel ejemplo de lo dicho. Los autores han dedicado un tiempo precioso para
que los alumnos no dilapiden el suyo (un bien escaso entre los estudiantes
universitarios) en la búsqueda de bibliografía dispersa y/o de difícil acceso. El
hecho es que –en este caso- los estudiantes avanzados de la carrera de
Farmacia podrán disponer (y disfrutar) de un material de estudio de gran
utilidad, no sólo por la calidad intrínseca del mismo sino porque enriquece un
acervo bibliográfico no demasiado abundante en obras de esta disciplina en
lengua castellana.

La obra que ha sido titulada sobriamente “Análisis Farmacéutico”, contiene


información precisa sobre los contenidos esenciales del control de calidad de
medicamentos, el aseguramiento de la calidad farmacéutica, la validación de
metodologías analíticas y bioanalíticas, así como ensayos específicos para
avalar la performance de distintos tipos de formas farmacéuticas y productos
biofarmacéuticos.

6
Los coordinadores exhiben antecedentes académicos y científicos que
garantizan el nivel de excelencia alcanzado por el texto que ahora se pone a
disposición de alumnos y graduados: la Dra. Volonté es miembro de la
Academia Nacional de Farmacia y Bioquímica, integra la Comisión Permanente
de la Farmacopea Argentina y posee una vastísima experiencia en la docencia
de grado y de posgrado en nuestro país y en el exterior; por su parte el Lic.
Pablo Quiroga, quien realizó un Master Universitario en Toxicología en la
Universidad de Sevilla, desarrolla su actividad docente en Control de Calidad
de Medicamentos y en Toxicología Farmacéutica, participando además en la
Subcomisión de Controles Toxicológicos de la Farmacopea Argentina.

Finalmente, corresponde felicitar a las autoridades de la Universidad Nacional


de La Plata por esta valiosa iniciativa de brindar a sus calificados docentes la
posibilidad de acercar a alumnos de las diversas disciplinas que se cultivan en
esa Casa de Altos Estudios una bibliografía moderna y actualizada.

Néstor O. Caffini
La Plata, Marzo de 2013

7
CAPITULO 1
INTRODUCCIÓN AL CONTROL DE CALIDAD DE MEDICAMENTOS
María Guillermina Volonté

Garantía de Calidad de Medicamentos

Los farmacéuticos que se dedican a la elaboración de medicamentos, ya sea a


nivel industrial, oficinal u hospitalario, deben asegurar que los mismos sean
adecuados para su uso previsto, es decir, no expongan a los pacientes a
riesgos debidos a defectos en la seguridad, calidad o eficacia de ellos.
Para que un medicamento pueda considerarse de buena calidad debe estar
elaborado con procedimientos técnicos adecuados, que cumplan en forma
estricta normas internacionales de fabricación. Por supuesto que la calidad no
la da el control de calidad en sí mismo, sino que debe estar incorporada en el
producto. De nada servirá disponer de un laboratorio o servicio de control de
calidad que detecte todos los defectos de un lote de medicamentos, si la
producción es defectuosa en sí misma y por lo tanto ese medicamento ya no
cumplirá con su objetivo fundamental: llegar a manos de un paciente
ofreciéndole eficacia y seguridad. Es decir, la calidad del medicamento
dependerá de cómo fue elaborado. Este paradigma de “fabricar con calidad”
generó un verdadero cambio conceptual en el enfoque que se le daba al tema.
Esta calidad habrá que asegurarla tanto en la Industria Farmacéutica, como en
la Oficina de Farmacia y en la Farmacia Hospitalaria. Durante mucho tiempo se
consideró erróneamente que la noción de control de calidad de medicamentos
solo era competencia de la industria farmacéutica, sin embargo, las
preparaciones magistrales y la fabricación a nivel hospitalario, también deben
someterse a reglas precisas, si bien es cierto que requieren una consideración
diferente a aquellas fabricaciones de nivel industrial. Lo importante es que en
ningún caso puede estar ausente la idea central de obtener un producto eficaz
y seguro para el paciente, es decir, de buena calidad.

8
Mientras que la eficacia se define como la capacidad de un medicamento para
obtener la acción terapéutica buscada, en tiempo y forma, se entiende que un
medicamento es seguro en tanto los riesgos que tenga para el paciente solo
resulten aceptables en términos de un análisis riesgo-beneficio.
Qué entendemos por Calidad? En líneas generales podemos decir que calidad
es la capacidad de un producto, de un proceso o de un servicio, de satisfacer
las necesidades del usuario. En nuestro caso el producto es el medicamento, el
proceso es la elaboración propiamente dicha de éste y el servicio es su
dispensa, mientras que el usuario es el paciente.
Todos los pacientes deben tener la certeza que el medicamento que
consumen: no se haya contaminado, se haya fabricado de acuerdo a una
formulación correcta, permanezca en su estado original y no se haya
deteriorado y se encuentre en un envase correcto e inviolable, para evitar
daños o contaminaciones en su transporte y almacenamiento.
Cómo aseguramos la calidad de los medicamentos? Para conseguir el objetivo
de calidad de forma confiable es necesario un sistema de Garantía de Calidad,
diseñado globalmente y aplicado en forma adecuada según las Buenas
Practicas de Elaboración de Productos Farmacéuticos, habitualmente
denominadas GMP, en referencia a las siglas de su nombre en inglés (Good
Manufacturing Practice) y según el Control de Calidad, propiamente dicho.
Estos conceptos guardan una estrecha relación entre sí, cuando hablamos de
Garantía de calidad no estamos diciendo otra cosa que Aseguramiento de la
Calidad, por lo tanto será la suma total de actividades organizadas, con el
objetivo de garantizar que los medicamentos posean la calidad requerida para
su uso previsto, es decir que comprenderá todas aquellas acciones,
planificadas y sistematizadas, necesarias para proveer adecuada confianza de
que un material o un proceso, cumplirá los requisitos de calidad establecidos.
Por lo tanto, es un concepto amplio que abarca todos los aspectos que,
individual o colectivamente, influyen en la calidad del producto.
Un sistema de Garantía de Calidad adecuado para la elaboración de
medicamentos debe asegurar el diseño y desarrollo de los medicamentos, que
las operaciones de producción y control estén claramente especificadas, que

9
se tomen todas las medidas adecuadas para la elaboración, que se realicen
todos los controles necesarios de los productos intermedios y del producto
terminado y cualquier otro tipo de control durante el proceso, validándose todos
ellos, y por último que se garantice que los medicamentos se almacenan y
distribuyen de forma que su calidad se mantenga íntegra hasta la fecha de
vencimiento.
El Sistema de Garantía de Calidad sustituye el antiguo concepto que suponía
que la calidad era competencia únicamente del servicio de control de calidad
del laboratorio farmacéutico.
Antes solamente se consideraban los controles de calidad en las distintas fases
de la elaboración: materias primas, material acondicionamiento, proceso y
producto.
Ahora se debe operar de acuerdo a normas que disminuyan errores y
garanticen un producto de calidad.

Buenas Prácticas de Manufactura (GMP)

Las GMP son la parte de la Garantía de Calidad que asegura que los
productos se elaboran de forma homogénea y se controlan para conseguir los
niveles de calidad adecuados a su uso previsto. Se refieren tanto a la
producción como al control de calidad.
Las GMP abarcan todos los aspectos del proceso de fabricación: locales,
almacenamiento y transporte adecuados; personal calificado y capacitado para
la producción y el control de la calidad; descripciones detalladas de las tareas a
realizar y organigrama de trabajo de cada sección; programas de higiene y
salud del personal y detalle de la especial vestimenta que deberán poseer.
Los laboratorios deberán ser apropiados y estar diseñados, construidos y
mantenidos de acuerdo a las operaciones a realizar; con iluminación,
temperatura, humedad y ventilación adecuadas.
Podemos distinguir varias áreas en un establecimiento de elaboración de
medicamentos, que cumpla con las GMP:

10
 Áreas Accesorias: vestuarios, talleres, descanso, etc.
 Áreas de Almacenamiento: de materiales, productos, recepción,
muestreo, materiales aprobados o rechazados o en cuarentena,
psicotrópicos, impresos, etc.
 Áreas de Pesaje: parte del área de almacenamiento o de producción.
 Áreas de Producción: independientes según el producto,
almacenamiento durante proceso, envasado, etc.
 Áreas de Control de calidad: equipos, muestras, referencias.
Procedimientos e instrucciones escritas aprobadas; registros donde consten
todas las etapas de los procedimientos definidos adoptados; posibilidad de
seguir un producto en todas sus etapas mediante registros de procesado de
lotes y registros de distribución y por último sistemas para la investigación de
reclamos mediante procedimientos escritos, personal a cargo, registros,
investigación, acciones a seguir (correctivas y/o preventivas), plan de acción
para eliminar la causa del problema, plan de seguimiento y retiro de productos
del mercado farmacéutico, que se efectúa una vez que es identificado el
defecto, requiriendo también procedimientos escritos, información a las
autoridades sanitarias y un almacenamiento segregado del producto retirado y
del stock remanente.
Respecto a los tipos de defectos y la premura con que se tomen acciones
frente a estos, podrán ser:
 Críticos: constituyen un riesgo para la vida del paciente: etiquetado
incorrecto, potencia incorrecta, contaminación microbiana, etc.
 Mayores: pueden poner al paciente en riesgo de reacciones adversas:
información en prospectos o rótulos incompleta o incorrecta, falta de
cumplimiento de ciertas especificaciones, etc.
 Menores: constituyen un riesgo menor para el paciente: empaque y/o
cierre defectuoso, contaminaciones menores, etc.
Entre otros documentos que deberán llevarse para cumplir con las GMP
podemos mencionar a las: Especificaciones, es decir los requisitos que tienen

11
que cumplir los productos o materiales utilizados u obtenidos, generalmente
serán las que codifiquen las Farmacopeas más reconocidas.
Fórmula Patrón, Método Patrón e Instrucciones de acondicionamiento,
incluyendo a las materias primas utilizadas y las operaciones de elaboración y
acondicionamiento.
Procedimientos, forma de realizar ciertas operaciones (limpieza, vestuario,
muestreo).
Protocolos, historia de cada lote de producto.
Rótulos, internos y de los productos.
Además se deben validar las fases críticas de los procesos de elaboración es
decir aquellas que pueden causar variación en la calidad final del producto
farmacéutico, por ejemplo el mezclado y homogenización de los polvos en el
proceso de elaboración de comprimidos.
Las GMP tienen como objetivo fundamental disminuir los riesgos inherentes a
la producción farmacéutica, en especial riesgos provenientes de una
contaminación cruzada o de una confusión provocada por un rotulado
equivocado. De esta manera se disminuyen los riesgos inherentes a toda
producción farmacéutica, que no pueden prevenirse completamente mediante
el control final del producto.
En nuestro país las Autoridades Regulatorias (ANMAT/INAME) adoptaron las
Buenas Prácticas de Manufactura emitidas por la OMS y actualizadas en 1992,
que figuran en la Farmacopea Argentina (FA VII ed. año 2003), capítulo
<1020>
Cuando una persona se acerca por primera vez a estos conceptos, puede
pensar que es algo sencillo, pero en la práctica no lo es. Uno de los principales
agentes que producen contaminación, confusiones y errores son las personas.
Los principales tipos de contaminantes, característicos de la industria
farmacéutica, son:
 Contaminación por partículas, polvo o suciedad.
 Contaminación por mezcla errónea de componentes, como parte de la
formula farmacéutica.
 Contaminación por microorganismos.

12
La aplicación estricta de las GMP evita cualquiera de estas contaminaciones.
La meta de las GMP es garantizar productos seguros y que tengan la identidad,
eficacia, pureza y calidad que el fabricante expresa que tiene.
Por qué deben cumplirse estas condiciones?
Seguridad: porque el producto debe ser destinado para consumo humano, sin
efectos adversos o tóxicos debidos a errores de elaboración.
Identidad: porque debe tener lo que declara su rótulo, sin excepción ni errores.
Potencia: porque debe tener la concentración correcta para ser efectivo en su
acción.
Pureza: porqué tiene que ser puro, es decir, sin contaminantes
Calidad: porque siempre debe elaborarse igual, con los mismos estándares de
calidad.
El principio rector de las GMP debe ser que la calidad forma parte integral de la
elaboración del medicamento, y no es algo que meramente se somete a prueba
en el producto. Por consiguiente, con esto se asegura que el producto no sólo
cumple con las especificaciones finales, establecidas por las Farmacopeas en
su monografía respectiva, sino que se ha fabricado por los mismos
procedimientos y en las mismas condiciones cada vez que se elabora.
Hay muchas formas de lograr esto: la validación es la parte de las GMP por la
cual se logra que los sistemas, los equipos, los procesos y los procedimientos
para los ensayos de calidad estén bajo control y, por consiguiente, se produzca
uniformemente un producto de calidad.

Control de Calidad

En cuanto al Control de Calidad, es la parte de las GMP que se refiere al


muestreo, especificaciones y ensayos necesarios para que las materias primas,
material de acondicionamiento y productos terminados, sean considerados de
buena calidad y por lo tanto aprobados para su distribución y dispensación.
El Departamento de Control de Calidad debe ser independiente de otros
departamentos, en especial del de Producción, y estar bajo la autoridad de una

13
persona calificada y experimentada, que tenga a su disposición uno o más
laboratorios de control. Debe contar con recursos suficientes para asegurar que
los procedimientos de control de calidad pueden efectuarse con eficacia y
confiabilidad.
Un medicamento es un producto complejo que requiere un protocolo de control,
que solo puede garantizarse mediante la utilización de métodos analíticos
apropiados.
Los requisitos básicos de un correcto control de calidad contemplan la
realización del muestreo y control de materias primas, material de
acondicionamiento y producto terminado, así como también del medio
ambiente donde se elaboren los productos, que serán llevados a cabo por
personal adecuado, es decir entrenado y calificado, mediante la aplicación de
métodos analíticos validados, y llevando una documentación organizada de
todos los pasos.
Además se encargarán de los estudios de estabilidad de nuevos productos, de
que se mantenga una investigación analítica permanente para la actualización
y validación de los métodos.
Será este departamento responsable de las sustancias de referencia,
utilizadas en los ensayos de control de calidad, así como también de las contra
muestras de cada lote analizado.

Buenas Prácticas de Laboratorio

Los laboratorios de control de calidad hoy en día deben organizarse de tal


manera que trabajen bajo estrictas normas de Buenas Prácticas de Laboratorio
o GLP, en referencia a las siglas de su nombre en inglés (Good Laboratory
Practice), asegurando que los resultados obtenidos en dicho laboratorio sean
confiables, para lo cual se deben disponer de reglas, procedimientos y
prácticas que aseguren la calidad y rectitud de dichos resultados.
Las GLP establecen requisitos de aptitud de instalaciones, de métodos
debidamente validados, de reactivos en cuyos rótulos deberá figurar la

14
identificación del contenido del envase, su concentración o título, la fecha de
preparación, de valoración y de vencimiento, así como las condiciones de
almacenamiento. Respecto a los equipos deberán estar correctamente
verificados, limpios y con un mantenimiento actualizado. Todo estará
debidamente documentado o registrado. Por ello es tan importante llevar al día
Procedimientos Normalizados de Trabajo, denominados también
Procedimientos Operativos Estándar, que son documentos que describen como
llevar a cabo ciertas actividades o ensayos de rutina. Se escriben para los
siguientes casos:
 Inspecciones de rutina, limpieza, mantenimiento, control y calibración de
equipos
 Acciones frente a fallas de equipos
 Métodos analíticos
 Almacenamiento, manipuleo y descarte de materiales
 Precauciones referentes al cuidado de la salud y la seguridad
Estos procedimientos deben ser escritos detalladamente como para que el
analista no tenga que realizar consultas continuamente, pero sin crear
confusión.
Se deben guardar en el archivo general del laboratorio y copias en los lugares
de trabajo, archivando correctamente tanto los que están en vigencia como las
versiones anteriores.
En el caso de los equipos de laboratorio lo importante es obtener resultados
confiables con ellos, en tiempos razonables, con una actualización constante
de la tecnología, por lo cual se deben contar con instrumental y equipos
adecuados, con un correcto mantenimiento y calibración y con personal
capacitado y calificado.
Con respecto a la calificación de los equipos, podemos mencionar tres tipos de
procedimientos:
Calificación de Instalación (IQ). Se verifica que todos los aspectos claves de
la instalación se cumplan de acuerdo con las especificaciones del fabricante.
Ejemplos: descripción del equipo, información del fabricante, especificaciones

15
del diseño del equipo, información del mantenimiento, procedimientos de
operación, planos de instalación, etc.
Calificación de Operación (OQ). Se verifica que todos los equipos funcionen
de la forma esperada y sean capaces de operar satisfactoriamente sobre todo
el rango de los parámetros operacionales para los que han sido diseñados. La
finalidad es demostrar que el sistema, maquinaria y/o equipo involucrado opera
correctamente una vez que se ha concluido la calificación de instalación.
Calificación de Funcionamiento (PQ). Es el programa documentado que
demuestra la efectividad y reproducibilidad del proceso bajo condiciones
normales de operación y bajo condiciones límites de operación. Los aspectos
incluidos en esta calificación son específicos para cada equipo, sistema o
proceso. Se llama también Calificación de Desempeño.

Tecnología Analítica de Proceso

Los últimos avances en calidad están dados por el Proceso PAT (Process
Analytical Technology) ó Tecnología Analítica de Proceso, al cual podemos
definir como una oportunidad para mejorar y optimizar los procesos productivos
y la calidad de los productos farmacéuticos.
PAT es un sistema para diseñar, analizar y controlar la elaboración por medio
de medidas en línea de los atributos definidos como críticos en las materias
primas, productos intermedios, terminados y en el proceso en sí mismo. El
término “analítico” en PAT tiene una definición amplia, abarcando cuestiones
químicas, físicas, microbiológicas, matemáticas y de análisis de riesgo,
trabajando en forma conjunta.
Los objetivos de trabajar con PAT son, entre otros, incrementar profundamente
el conocimiento de los procesos productivos. El concepto de “calidad por
diseño” se basa en este conocimiento acabado del proceso ya que solo con
este conocimiento vamos a ser capaces de monitorear y controlar
efectivamente un proceso. Debemos conocer los puntos críticos y saber qué
propiedades medir en los mismos. Trabajar activamente para reducir la

16
variabilidad de los mismos y reducir los muestreos y análisis off-line. Predecir la
calidad del producto final por medio de medidas efectuadas en diferentes pasos
de la elaboración del mismo.
Esto permitirá la liberación rápida de productos y la desaparición de eventuales
“sorpresas desagradables” cuando se está esperando la salida de un producto,
así como minimizar los potenciales riesgos de no conformidades y problemas
regulatorios.
PAT es una forma de control de calidad “en línea” que permite realizar
pequeños ajustes en un lote en tiempo real, de modo que se pueda mantener
su calidad y completar el proceso de acuerdo con un programa establecido.
Un sistema PAT consiste en sensores conectados en red a sistemas
computacionales que realizan aplicaciones analíticas para procesar en tiempo
real datos en bruto sobre los lotes.
No obstante, si no se cuenta en forma permanente con computadoras, redes y
sistemas de almacenamiento adecuados, los sistemas PAT serán menos útiles
que los procesos manuales. La infraestructura IT (Tecnología de la
Información) deberá superar niveles estándares de confiabilidad, disponibilidad
y tiempo de funcionamiento.
Las principales herramientas utilizadas en un sistema PAT son:
 Herramientas multivariantes para el diseño, adquisición de datos y
análisis. Existen métodos que pueden adquirir información de múltiples
atributos en forma simultánea y no destructiva.
 Analizadores de procesos
 Herramientas de control de proceso. En los procesos clásicos la
variabilidad no medida de propiedades de los componentes hace que el
resultado no sea el esperado, para evitar esto se pueden utilizar
métodos que permitan medir variables críticas “en–tiempo” PAT y así
detener un proceso cuando se alcanza la condición óptima.
 Herramientas de mejora continua y gestión del conocimiento adquirido.

Ejemplos: Análisis en línea de la humedad remanente en un proceso de secado


en un secadero de lecho fluido y seguimiento de un proceso de mezclado.

17
Ambos ejemplos están basados en técnicas espectrofotométricas utilizando la
zona del infrarrojo cercano (NIR) ya que ha demostrado ser una zona con
información muy útil para obtener datos de sustancias y procesos en forma no
destructiva.
Otro ejemplo: Sensores instalados en la línea de producción que alimentan
datos continuos de pH en un modelo PAT matemático. El sistema PAT detecta
una significativa disminución de la acidez del lote y comunica la novedad al
técnico en tiempo real, quién hace las correcciones necesarias para superar el
problema.

Garantía de Calidad de Formulaciones Magistrales

Cuando hablamos de medicamentos elaborados en la farmacia oficinal u


hospitalaria nos referimos a las Formulaciones Magistrales, cuya definición nos
dice que son medicamentos destinados a un paciente individualizado,
elaborado por el farmacéutico, o bajo su dirección, para cumplimentar una
prescripción detallada de los principios activos que incluye, según las normas
técnicas y científicas del arte farmacéutico, dispensado en su farmacia y con la
debida información al paciente.
No debe confundirse con Preparaciones Oficinales, que son aquellos
medicamentos de acción terapéutica comprobable, distinguidos con un nombre
genérico y que puede prepararse en la oficina de farmacia. Para su expendio a
semejanza de la especialidad farmacéutica o medicinal, deberá presentar una
forma farmacéutica estable, envasarse uniformemente y sujetarse a la
autorización previa de la Secretaría de Salud Pública de la Nación. El término
preparación magistral tampoco debe asociarse al de medicamento o Preparado
Oficial, que es todo medicamento inscripto en la Farmacopea y que por tanto
puede prepararse libremente en la oficina de farmacia.

Las formulaciones magistrales constituyen una parte integral de la práctica


farmacéutica y son esenciales para la administración del cuidado de la salud.

18
Algunas de las características que las diferencian de las especialidades
medicinales elaboradas en la industria, incluye la existencia de una relación
específica entre el farmacéutico, el paciente y el profesional prescriptor,
logrando tratamientos individualizados que responden a necesidades
particulares.
Dentro de las pautas de actuación tendientes a optimizar la prescripción y
dispensación de estos medicamentos, debemos considerar que solamente
deberán ser utilizadas para cubrir vacíos terapéuticos (caso de medicamentos
pediátricos no elaborados por las industrias farmacéuticas) o adaptar los
medicamentos a los pacientes (modificación de la forma farmacéutica para
lograr una mejor aceptación por parte del paciente, por ejemplo comprimidos
muy voluminosos destinados a pacientes con problemas de deglución). Salvo
que, mediante una variación de la dosis del principio activo o del excipiente se
pretenda una adaptación del medicamento a la situación clínica del paciente,
no se justifica una preparación magistral cuya composición sea igual que la de
una especialidad ya comercializada. De existir una especialidad que posea el o
los mismos principios activos prescriptos en cantidad igual a la especificada en
la prescripción, con idéntica vía de administración y que no contenga entre los
componentes de la formulación sustancias no toleradas por el paciente, se
preferirá siempre la dispensación de la especialidad.
Por otra parte no se deberán utilizar principios activos retirados del mercado,
por su ineficacia o falta de seguridad. Se debe procurar no asociar más de dos
principios activos, salvo en aquellos casos en los que esa asociación esté
claramente indicada. Este principio se ajusta a los criterios del uso racional de
medicamentos, según los cuales son pocas las ocasiones en que es necesario
asociar más de dos principios activos. De esta manera se evitan los riesgos de
incompatibilidades físico-químicas que pueden afectar negativamente el efecto
farmacológico.
No se debe elaborar, ni dispensar más cantidad de la estrictamente necesaria.
Se evitarán así problemas de inestabilidad, de mayor consumo de dosis por
parte del paciente, etc.

19
Se recomienda elegir cuidadosamente los excipientes. Considerar siempre las
posibles incompatibilidades entre el principio activo y los excipientes
Facilitar siempre instrucciones al paciente. Las formulaciones magistrales
tienen que ir siempre acompañadas de la información suficiente que garantice
su correcta identificación y conservación y su segura utilización.
Los casos en que se aconseja la utilización de preparados magistrales son
para pacientes que responden mejor con fármacos que no se encuentran en el
mercado, o pacientes que necesitan dosis de principios activos que no se
encuentran en las especialidades, pacientes con afecciones dermatológicas o
con problemas de intolerancia a determinados excipientes o que necesitan una
vía de administración no habitual.
Las Buenas Prácticas de Elaboración de Magistrales comienzan con el diseño
de la formulación, desde el momento de la recepción de la receta. Por lo cual
se debe estudiar y evaluar la prescripción, en especial la posología de los
principios activos, los excipientes y la cantidad de fórmula a preparar, para, si
fuese necesario, proponer modificaciones al prescriptor. A su vez, si fuera
necesario, se deberá recoger información del paciente, para complementar la
que suministra la receta, como por ejemplo, perfil farmacológico del paciente,
modo de aplicación del producto, etc.
El diseño galénico, es probablemente el acto más importante desde el punto de
vista farmacéutico para asegurar la calidad final.
Las normas o pautas de correcta elaboración no se adoptan únicamente en un
sentido evaluador del producto terminado, sino que incluyen también al
personal responsable de la elaboración y al local o laboratorio de magistrales,
que deberá estar diferenciado en la farmacia, totalmente independiente del
lugar de atención al público y del depósito, adecuadamente diseñado para
realizar en él la elaboración de los preparados. Deberá estar diseñado de forma
que tenga superficies lisas de fácil limpieza, fácilmente lavado, desinfectado e
incluso esterilizado si fuere necesario. Ninguna de las superficies que puedan
entrar en contacto con el producto ha de ser susceptible de afectar la calidad
del medicamento o de sus componentes.

20
Los equipos a usar deberán ser adecuados a la preparación que se va a
elaborar y compatibles con las materias primas a utilizar, fáciles de limpiar y
calibrados, sobre todo la balanza, y otros elementos de medidas, como
probetas, etc. En el caso de pesadas de sustancias muy activas, se
recomienda efectuar las diluciones adecuadas para dar más exactitud a la
pesada y facilitar la posterior mezcla de las sustancias.
Las materias primas son fundamentales en este caso, pues de su calidad
dependerá sustancialmente el resultado del producto final. Se entiende por
materia prima todo producto que participe en la composición de una fórmula
magistral, ya sea principio activo o excipientes. Como es lógico la calidad de la
materia prima va a ser un determinante de la calidad del producto final. El
farmacéutico debe garantizar la adecuación de los productos que utiliza, para
ello deberá tener en cuenta el origen de las materias primas, el control analítico
de las mismas, (realizado por el proveedor, quién deberá suministrar un
Certificado Analítico de las materias primas, por un tercero o en su defecto por
el propio farmacéutico). Deberá poner atención en la recepción de las mismas
examinándolas para verificar su integridad, aspecto y etiquetado del envase.
Se deberá etiquetar adecuadamente cada materia prima, constando nombre y
número de lote, fecha de recepción, si se ha controlado, fecha de vencimiento,
condiciones especiales de almacenamiento, etc.
Los documentos constituyen una parte fundamental del sistema de control de
calidad, pues permiten autentificar los procesos realizados y supervisar “a
posteriori” su desarrollo. Estos documentos deberán ser claros y concisos para
facilitar la rápida comprensión de los mismos. Deberán mantenerse registros y
documentos generales, relativos a la materia prima, al material de
acondicionamiento y al producto terminado. En general deberán documentarse
procedimientos de limpieza del local y del material, normas de higiene del
personal, lista de proveedores, registros de materias primas y de envases,
fichas de análisis de materias primas, procedimientos de elaboración de
fórmulas magistrales y datos de su dispensación (Libro Recetario).

21
Los residuos de origen químico serán evacuados en forma regular, en
recipientes adecuados, y bajo las consideraciones legales correspondientes a
residuos patogénicos.
En la Oficina de Farmacia la garantía de calidad alcanza su máxima
importancia en la fase de la preparación propiamente dicha. Consistirá en la
aplicación de técnicas y procedimientos que permitan asegurar que se
alcanzará el objetivo de un producto no desviado del óptimo, establecido en su
diseño. Se deberán realizar comprobaciones previas a la elaboración como por
ejemplo: verificar que en la zona de trabajo no existan otras materias primas
que las necesarias para esa preparación en particular, la limpieza del local,
equipos preparados y calibrados, documentos disponibles, etc. Luego están las
acciones propias de la elaboración, todas realizadas por el farmacéutico o bajo
su supervisión, como por ejemplo: pesadas, medidas, etc. En el caso de
productos poco estables y/o tóxicos, se manipularán conforme a
procedimientos escritos de manejo de los mismos. Durante la preparación se
irá cumpliendo la ficha de elaboración previamente diseñada. El envasado se
hará acorde con la formulación en particular.
Por último un correcto etiquetado, la información al paciente, oral y escrita, las
pautas para la conservación y el establecer una fecha de vencimiento, son el
valor agregado a los medicamentos magistrales que jerarquizan la
dispensación.
En la etiqueta deberán figurar los siguientes datos: composición cuali y
cuantitativa de los principios activos (utilizando el nombre en español de la
Denominación Común Internacional de la OMS, no aceptándose las sinonimias
o nombres alternativos); descripción cualitativa de los excipientes; forma
farmacéutica, vía de administración y cantidad dispensada; número de registro
en el libro recetario; fecha de preparación; fecha de vencimiento; condiciones
de conservación; nombre del paciente.
La dispensación de un medicamento debe ir siempre acompañada de la
información al paciente necesaria para su correcta utilización, toda la
información tanto oral como escrita, deberá ser suministrada por el
farmacéutico. Si el envase lo permite esta información podría consignarse en el

22
rótulo adherido al mismo, de no ser posible se puede entregar en hoja aparte.
La información constará al menos de: identificación de la formulación, forma
farmacéutica y vía de administración, precauciones, contraindicaciones,
incompatibilidades, interacciones, efectos secundarios, intoxicación y su
tratamiento, normas de correcta administración, condiciones de conservación y
advertencias, nombre, dirección y teléfono de la Farmacia.
Las pautas para la conservación es una actividad que deberá ser desarrollada
con especial atención por el farmacéutico y las instrucciones que dará al
paciente son las siguientes: guardar los preparados al abrigo de la luz y en un
lugar fresco y seco (nunca en el cuarto de baño); conservarlos en heladera
cuando es necesario, no siempre, puesto que algunas formulaciones pueden
alterarse con los cambios de temperatura; mantener los envases abiertos el
menor tiempo posible y asegurarse que queden bien cerrados; consultar al
farmacéutico frente a cualquier cambio observado en la formulación, etc.
Respecto a la fecha de vencimiento, se deberá tener en cuenta que los
preparados farmacéuticos se hacen con la intención de dispensarse para una
administración inmediata o para almacenamiento a corto plazo, pueden
asignarse fechas de vencimiento en base a criterios diferentes a los empleados
para productos elaborados en escala industrial. Cuando se asigna una fecha de
vencimiento, los farmacéuticos deben consultar y aplicar la documentación
general sobre estabilidad y la vinculada a la droga en particular. La fecha de
vencimiento deberá asignarse siguiendo un criterio conservador. Como pautas
generales y en ausencia de información sobre la estabilidad aplicable a la
droga o a un preparado específico, se recomiendan las siguientes pautas:
 Para preparaciones sólidas o líquidas no acuosas y cuando una
especialidad medicinal es la fuente del principio activo, la fecha de
vencimiento no deberá exceder el 25% del tiempo remanente hasta la
fecha de vencimiento de la especialidad, o de 6 meses; el tiempo que
resulte más corto.
 Para preparaciones sólidas o líquidas no acuosas que se realicen a
partir de materias primas individuales, la fecha de vencimiento no deberá
exceder los 6 meses.

23
 Para preparaciones acuosas la fecha de vencimiento no deberá exceder
los 14 días, conservadas en heladera.
 Para todas las otras preparaciones la fecha de vencimiento no deberá
exceder el tiempo de duración de la terapia ó 30 días; el tiempo que
resulte más corto.
La calidad de las formulaciones magistrales vendrá enmarcada en la
adecuación de estas a una serie de propiedades cuantitativas y cualitativas
tales como: peso, composición, aspecto, estabilidad, absorción y distribución
en el organismo, etc. El control de calidad de preparaciones magistrales, se
aplica de manera diferente a como se hace en la industria, en este caso se
pone especial énfasis en asegurar la calidad de los pasos intermedios de
elaboración, fundamentalmente en lo que se refiere a la idoneidad de las
materias primas, al correcto seguimiento del protocolo de preparación y a la
preparación realizada únicamente por el farmacéutico, lo cual constituye un
verdadero respaldo para la calidad final.
No es menos cierto, sin embargo, que existen una serie de pruebas sencillas
de realizar y que pueden facilitar una idea de la aceptabilidad o no del producto
terminado.
En general podemos afirmar que la seguridad, calidad y rendimiento de los
preparados farmacéuticos dependen del empleo de ingredientes y cálculos
correctos, mediciones exactas y precisas, condiciones de formulación y
procedimientos apropiados y del juicio prudente del farmacéutico. Como control
final, el farmacéutico debe revisar cada procedimiento del proceso de
elaboración del preparado farmacéutico. Para garantizar la exactitud y la
integridad, el farmacéutico debe observar la preparación terminada para
asegurarse de que parece ser el preparado esperado. Si hubiera alguna
discrepancia deberá investigar el origen y tomar medidas correctivas
apropiadas antes de que la prescripción se dispense al paciente.
Controles de calidad recomendados para preparados magistrales:
Se procederá, como mínimo, al examen detallado de los caracteres
organolépticos y un control de la rotulación.

24
Sería sumamente deseable y a veces necesario, realizar el análisis cuantitativo
del principio activo al menos cuando el margen terapéutico es estrecho. En una
farmacia esto representa una verdadera dificultad, por lo que es preferible
renunciar a elaborar preparaciones riesgosas si no se tienen los medios
adecuados para determinar la cantidad de principio activo.
Es conveniente efectuar además los siguientes controles no destructivos o que
requieran una pequeña cantidad adicional de preparado, para las diferentes
formas farmacéuticas:

1. Cápsulas y otras formas sólidas vía oral:


 Uniformidad de peso: pesar individualmente 20 unidades ó todas las
elaboradas si el número es inferior a 20. Cada unidad controlada deberá
tener un peso entre 90 – 110 % del peso teórico.
 Test de desintegración: según Farmacopea Argentina.
 Revisión de caracteres externos: cápsulas limpias, bien cerradas, con
buen aspecto.
2. Preparados semisólidos de aplicación tópica:
 Homogeneidad: extender una capa fina sobre una superficie negra,
comprimir con una placa de vidrio y examinar con una lupa.
 pH: realizar sobre una dispersión al 10% en agua
 Desviación de peso respecto al teórico: peso de la fórmula terminada
descontando el envase, una desviación alta sobre el valor teórico puede
indicarnos un error de elaboración.
 En el caso de emulsiones confirmar su tipo (O/W ó W/O): por dispersión
de una pequeña cantidad en agua ó por colorantes. Si se utilizan
colorantes de la serie Sudán y se colorea, estaremos ante una emulsión
w/o; con azul de metileno si se produce coloración, la emulsión será o/w.
3. Soluciones y suspensiones orales y tópicas:
 Aspecto: deberá observarse ausencia de partículas extrañas y
transparencia en las soluciones.
 Hermeticidad del cierre.

25
 pH: para preparados acuosos se tomará directamente, mientras que
para los no acuosos se recomienda una dispersión al 10% en agua.

Las Farmacopeas

Las Farmacopeas constituyen las normas oficiales de calidad. Para el registro


de Medicamentos ante los Organismos de Control, no solo es necesario aportar
datos de seguridad y eficacia de las materias primas y los productos
terminados sino que es imprescindible garantizar esas condiciones,
estableciendo adecuados controles de calidad. En nuestro país este control de
la calidad se debe realizar de acuerdo a las monografías correspondientes que
figuran en la Farmacopea Argentina VII edición, de reciente actualización.
Las Farmacopeas son códigos oficiales que recogen los estándares de calidad
de las materias primas farmacéuticas y de los medicamentos, que deben estar
adaptados a la situación actual del conocimiento y a las posibilidades de la
instrumentación analítica.
De un modo general la función de una Farmacopea es establecer los requisitos
de calidad que los principios activos y los medicamentos deben
obligatoriamente cumplir.
Para que un producto sea considerado de buena calidad deberá responder
adecuadamente con una serie de estándares, como ser, identidad, pureza,
potencia, biodisponibilidad y estabilidad, cada uno de ellos involucra ensayos
específicos que el producto deberá cumplir.
En las farmacopeas encontramos: Monografías de principios activos y
monografías de medicamentos, sin la dosis utilizada. En una monografía de un
principio activo se incluye:
 Definición
 Sinonimia
 Caracteres generales
 Envasado y conservación
 Sustancias de Referencia

26
 Identificación
 Pérdida por secado o Determinación de agua
 Residuo de ignición
 Pureza cromatográfica o Sustancias relacionadas
 Otros ensayos: ensayos límites, impurezas orgánicas volátiles, rotación
óptica, pH.
 Valoración
En una monografía de un medicamento se incluye
 Definición
 Envasado y conservación
 Sustancias de Referencia
 Identificación
 Disolución (según la forma farmacéutica)
 Uniformidad de unidades de dosificación
 Otros ensayos: pH (para formas farmacéuticas líquidas, polvos, cremas),
endotoxinas bacterianas (para inyectables), esterilidad (para soluciones
oftálmicas)
 Valoración

Preguntas Orientadoras

1. A qué se denomina “Fase crítica de un proceso”? Ejemplos.

2. Qué tipos de documentos deben llevarse en un Laboratorio productor


para cumplir con las GMP?

3. Cómo define GLP?. Qué son los Procedimientos Normalizados de


Trabajo, en qué casos se aplican y qué incluyen?

4. Con que finalidad se procede a la calibración de equipos de


laboratorio como por ejemplo balanzas y espectrofotómetros?

27
5. Cuáles son las etapas en la calificación de un equipo que nos
permitirá asegurar un funcionamiento coherente dentro de los límites
establecidos?

6. En las preparaciones magistrales, que controles de calidad le


realizaría a las cápsulas y a las soluciones?

Test de Autoevaluación

1. Uno de los principales objetivos de las Buenas Prácticas de


Manufactura (GMP) es:
(a) Disminuir los errores de trazabilidad de las Sustancias de
Referencia
(b) Disminuir los riesgos de confusión en los rótulos
(c) Disminuir los errores de dispensación de los medicamentos
(d) Aumentar la eficacia de un principio activo

2. Qué controles de calidad le realizaría a un preparado magistral, cuya


forma farmacéutica es una crema?
(a) Determinación del tiempo de disolución
(b) Determinación del pH
(c) Ensayo de uniformidad de contenido
(d) Determinación de la viscosidad

3. Qué fecha de vencimiento asignaría a un preparado magistral


elaborado a partir de una especialidad:
(a) 1 año
(b) La fecha de vencimiento de la especialidad
(c) 50% de la fecha de vencimiento de la especialidad
(d) 25% de la fecha de vencimiento de la especialidad

28
4. Qué ensayo de control de calidad le realizaría a cápsulas preparadas
en una Farmacia Oficinal:
(a) Ensayo de Disolución
(b) Ensayo de Uniformidad de Unidades de Dosificación por peso
(c) Determinación del pH
(d) Ensayo de esterilidad

Bibliografía

1. Ministerio de Salud – ANMAT. Farmacopea Argentina. VII ed. (2003) Buenos


Aires.
2. Aiache, J-M; Aiache, S.; Renoux, R. (1996) Introducción al estudio del
medicamento. Barcelona: Masson.
3. Barbé Rocabert, C. (2001) Preparados farmacéuticos y parafarmacéuticos.
Barcelona: Masson.
4. Colegio de Farmacéutico de Bizkaia. (1997) Formulación magistral en
atención primaria. España.
5. Rodríguez de Ordaz, R. (1991) Compendio de fórmulas magistrales y sus
técnicas de manufactura. Caracas: Compograf .
6. Llopis Clavijo, M.J.; Baixauli Comes, V. (1997) La formulación magistral en la
oficina de farmacia. Valencia: Distribuciones Cid.

29
CAPITULO 2
EL MÉTODO ANALÍTICO EN EL CONTROL DE CALIDAD
María Guillermina Volonté

El concepto de Validación

En el capítulo anterior mencionamos que la validación es la parte de las GMP


por la cual se logra que los sistemas, los equipos, los procesos y los
procedimientos para los ensayos de calidad estén bajo control y, por
consiguiente, se produzca uniformemente un producto de calidad.
La validación se define como el establecimiento de pruebas de laboratorio,
debidamente documentadas, que aportan un alto grado de seguridad de que un
proceso planificado se efectuará uniformemente en conformidad con los
resultados previstos especificados, es decir, que dicho proceso será apropiado
para el uso propuesto. Los estudios de validación son aplicables a los métodos
analíticos no codificados en las Farmacopeas, a los equipos tanto de
producción como analíticos, a las computadoras, programas y sistemas, así
como a los servicios del establecimiento (por ejemplo aire, agua, vapor, etc.) y
a los procesos (como el de fabricación, limpieza, esterilización, llenado estéril,
liofilización, etc.). Se hará una validación para el liofilizador como equipo y otra
para el proceso de liofilización; una para la limpieza del material de vidrio y otra
para la limpieza del establecimiento; una para el proceso de esterilización y
otra para las pruebas de esterilidad. Es preciso demostrar que cada paso del
proceso de fabricación de un medicamento se efectúa según lo previsto.
Los objetivos de una validación son otorgar Confiabilidad, Seguridad y
Efectividad al proceso que se está validando.
Y por qué se debe validar? Porque un sistema validado es un sistema estable,
capaz y robusto y es así como nos interesa mantenerlo, dado que estas
características son esenciales para mantener altos niveles de calidad
Los estudios de validación verifican el sistema en estudio y en condiciones de
pruebas extremas (pruebas a las que se llaman habitualmente “peor caso”),

30
semejantes a las que cabría esperar durante el proceso, a fin de comprobar
que dicho sistema está bajo control. Una vez que el sistema o proceso se ha
validado, cabe prever que permanezca bajo control, siempre y cuando no se
hagan cambios en el mismo. Si se producen modificaciones o surgen
problemas, o si un equipo se sustituye o se cambia de ubicación, habrá que
efectuar la revalidación. Los equipos y procesos de importancia crítica se
revalidan en forma sistemática a intervalos adecuados a fin de demostrar que
siguen bajo control.
El concepto de validación se aplicó por primera vez en la producción estéril. A
raíz de varios graves incidentes ocurridos en Estados Unidos en 1968, en
Inglaterra en 1972 y en Francia en 1977, donde murieron pacientes a los que
se les habían administrado soluciones intravenosas contaminadas, se vio la
necesidad de intensificar los controles a los procesos de esterilización y
envasado aséptico. En el caso de Inglaterra la investigación mostró tres fallos
no detectados: el autoclave no alcanzó en todo su volumen la temperatura de
esterilización, por estar una válvula bloqueada; el operario hizo caso omiso del
registro de temperatura (incorrecto) por ser correcto el de presiones y el test de
esterilidad no detectó el fallo a pesar de estar contaminadas 1/3 de las
unidades, ya que solo se muestreó de la parte superior de la carga.
Las validaciones pueden ser Retrospectivas cuando combinan nuevos criterios
con la experiencia adquirida anteriormente o Prospectivas cuando se inicia
desde un comienzo una validación. La Revalidación se realiza cuando
procedimientos ó métodos ya validados han sufrido alguna modificación o
cambios en la droga o en la composición del producto y por lo tanto se deben
volver a validar.También se debe realizar cuando la matriz y/o la concentración
de analito son distintos a los originalmente analizados.
Con la validación se consigue un aseguramiento de la calidad correcto,
reducción de costos, aumento de la productividad, cumplimiento de las
regulaciones y optimización de los procesos.
Las validaciones se deben llevar a cabo en plantas pilotos donde se elaboran
nuevos productos, en plantas farmacéuticas, en plantas químicas que elaboran

31
drogas o excipientes, en plantas que elaboran productos de diagnóstico, en
plantas de biotecnología y en laboratorios de control.
Cuándo se valida se debe realizar una planificación previa con todas las
variables, elegiendo siempre el “peor caso”. Se debe elaborar un Plan Maestro,
protocolos de validación, un plan de muestreo extensivo, considerar el proceso
propiamente dicho, un análisis físico químico y microbiológico intensivo y por
último un informe final.
Para la planificación debe existir un comité de validación formado por expertos
de las distintas disciplinas, quienes deberán elaborar un listado de prioridades.
El Plan Maestro es un programa que describe cómo se planifica y de que
manera se hará el trabajo de validación antes de que el área, planta, operación
o proceso pueda ser considerado para ser validado. El nivel de detalles varía
con la magnitud del plan. El protocolo es un documento de investigación e
imaginación. Describe paso a paso como será la validación antes de comenzar.
El plan de muestreo forma parte del protocolo. No es el plan de muestreo
rutinario a utilizar durante una producción normal del producto. Respecto del
número de muestras a evaluar, dependerá si estamos validando un proceso o
un producto, habitualmente se utilizan tres lotes. Estadísticamente es un
número pobre, pero aceptable. No se puede fabricar una cantidad mayor y
elegir los tres mejores lotes o los tres que cumplieron. Se debe determinar
previamente tres lotes consecutivos con sus números de lote a ser fabricados
en el futuro para ser parte de la validación.
La producción deberá seguir los métodos de manufactura y la formula
aprobados, pero con especial cuidados y detalles. Los análisis físico químicos y
microbiológicos son la parte más delicada, la que más puede ser influida por
errores humanos, de equipos no validados, etc. En el informe final se incluirán
los resultados analíticos de las muestras durante el proceso y del producto
terminado o del método validado y un dictamen final.
Antes de iniciar una validación se debe verificar que las instalaciones donde se
realizará la misma sean adecuadas, al igual que los Procedimientos Operativos
que se van a utilizar, que los equipos estén calificados, que los materiales y
reactivos sean los adecuados, que las sustancias de referencia con las cuales

32
se hará la validación sean trazeables y que el personal a cargo de la validación
esté capacitado y entrenado.

El Método Analítico

El empleo de métodos analíticos se inicia en la etapa de investigación y


desarrollo de un medicamento, para luego aplicarse en las diferentes fases de
su fabricación, así como en estudios posteriores tales como los de
bioequivalencia, analizando el fármaco en fluidos biológicos, para establecer
condiciones de intercambiabilidad. En cada uno de los casos la metodología
analítica deberá ajustarse a los requerimientos necesarios para cumplir con la
finalidad específica de la mencionada etapa.
Con la aplicación de métodos analíticos podremos dar respuesta a diversos
interrogantes que debemos afrontar cuando a calidad de un medicamento nos
referimos. Entre otros, los principales son:
La identidad y la pureza del principio activo y de los excipientes empleados en
la formulación, ¿cumplen con las especificaciones farmacopeicas?
Cuál es el contenido de principio activo en la formulación? Cumple con lo que
declara?
Cuál es su estabilidad y cuál su fecha de vencimiento?
A qué velocidad se libera el activo desde la forma farmacéutica, para luego
absorberse?
Cuál es la concentración del fármaco en un fluido biológico, después de
administrar una dosis de medicamento?
La elección del método analítico adecuado para responder a cada una de estas
preguntas, será determinante para la veracidad de los resultados obtenidos, ya
que no siempre el mismo método analítico será válido para obtener la
respuesta correcta, quizás el método seleccionado para evaluar la pureza de la
materia prima del principio activo, no sea el óptimo para controlar el contenido
del mismo en la formulación o para establecer su estabilidad en dicha
formulación. En las Farmacopeas podremos encontrar las especificaciones de

33
los métodos a utilizar en cada uno de estos casos, así como la instrumentación
más idónea, las cuales habitualmente requieren de la utilización de sustancias
de referencia apropiadas, de calidad garantizada, tanto para calibrar los
equipos utilizados, como para llegar a un resultado cuantitativo con el método
de análisis propuesto.
En todos los casos los métodos analíticos que se utilicen deberán estar
siempre validados, como cualquier otro proceso utilizado en la fabricación
industrial de medicamentos, tal como ya hemos señalado.

Validación del método analítico

Por validación analítica se entiende el trabajo experimental encaminado a


obtener pruebas documentadas de que un método proporciona
fehacientemente la información requerida al uso al que se destina. En otras
palabras la validación nos otorga la confianza necesaria para aplicar el método
y a su vez confiar en los resultados obtenidos: un método analítico validado es
un método analítico confiable.
Las Buenas Prácticas de Fabricación y Control (GMP) requieren que los
métodos analíticos empleados para evaluar las especificaciones establecidas
sean apropiados.
La validación de un método es el proceso por el cual se establece, por medio
de estudios de laboratorio, que un método es adecuado para el uso propuesto.

Aspectos regulatorios de la validación

 A nivel Nacional:
 Farmacopea Argentina (FA) VII ed. <1130> Validación de Métodos
analíticos.
 Disposiciones de la Administración Nacional de Medicamentos,
Alimentos y Tecnología Médica (ANMAT) 1930/92, 853/99, 2819/04.

34
 A nivel Internacional:
 USP 34 <1225> Validation of Compendials methods.
 International Conference on Harmonisation of Technical
Requeriments for Registration of Pharmaceuticals for Human Use
(ICH) (Japón, Estados Unidos y la Comunidad Europea), Guidelines
Q2A y Q2B.

Qué debe validarse?

Deben validarse métodos analíticos de:


 Materias Primas.
 Control de Procesos.
 Control de Productos Intermedios.
 Control de Productos Terminados.
 Estudios de Estabilidad.
 Validaciones de Limpieza.

Todos los métodos no codificados en Farmacopeas reconocidas deben ser


validados; los métodos codificados en Farmacopeas sólo deben validarse
cuando son destinados a estudios de Estabilidad y para Validación de
Limpieza.

Parámetros a evaluar

 Especificidad.
 Linealidad y Rango.
 Exactitud.
 Precisión
 Repetibilidad
 Precisión Intermedia

35
 Reproducibilidad
 Sensibilidad
 Límite de Detección (LD)
 Límite de Cuantificación (LC)
 Robustez.

Cada uno de estos Parámetros se determina utilizando un estándar del analito


ó Sustancia de Referencia.

En qué casos evaluar cada parámetro?

Los métodos analíticos se clasifican en 4 categorías:

 CATEGORÍA I: Incluye los métodos analíticos para la cuantificación de los


componentes mayoritarios de las materias primas o de los principios activos
(incluyendo los conservantes) en productos farmacéuticos.

 CATEGORÍA II: Incluye los métodos analíticos empleados para la


determinación de impurezas en las materias primas o productos de
degradación en los productos farmacéuticos. Estos métodos incluyen
valoraciones cuantitativas y ensayos límites.

 CATEGORÍA III: Incluye métodos analíticos para la determinación de las


características de desempeño (como por ejemplo, disolución, liberación de
principios activos).

 CATEGORÍA IV: Incluye ensayos de identificación.


Para cada categoría de análisis, se necesita diferente información analítica. En
la tabla a continuación, se indican los elementos que normalmente se requieren
para cada una de estas categorías.

36
CATEGORÍA DEL MÉTODO
I II (Cuant.) II (Lím.) III IV
Especificidad + + + (*) +
Linealidad + + (*) (*) (*)
Exactitud + + (*) (*) (*)
Precisión + + (*) + (*)
LD (*) (*) + (*) +
LC (*) + (*) (*) (*)
Robustez + + + + +
Intervalo + + (*) (*) (*)
(*) Puede requerirse según la naturaleza del ensayo.

A continuación se definen cada uno de los atributos necesarios para validar un


método analítico junto con una breve descripción de cómo deben determinarse.
Cada uno de los parámetros se determinan utilizando Sustancia de Referencia
o estándar del analito (SR)

Especificidad

Definición
La especificidad de un método implica su capacidad para evaluar al analito en
presencia de otros componentes que pueden estar presentes, tales como
impurezas, productos de degradación, componentes de la matriz, productos
laterales de síntesis, componentes endógenos o metabolitos del mismo analito
en un fluído biológico, excipientes, etc. En otras palabras, se deberá corroborar
que la matriz que rodea al analito, no influya en los resultados obtenidos al
aplicar el método.

Determinación
a) Si se dispone de dichos componentes.

 En el caso de análisis cualitativo (ensayos de identificación) debe


demostrarse la capacidad de discriminar entre sustancias de estructuras

37
estrechamente relacionadas que pudieran estar presentes. La
discriminación del método se determina aplicando el mismo a una
muestra conteniendo SR y los otros componentes y a una muestra que
no contenga SR (blanco).

 En el caso del análisis de impurezas, la especificidad puede


establecerse por el agregado de cantidades apropiadas de impurezas a
la SR o al producto farmacéutico y demostrando que estas impurezas
son determinadas con la precisión y exactitud necesarias.

 En el caso de una valoración, se debe demostrar que el método no se


ve afectado por la presencia de impurezas o excipientes. En la práctica,
esto puede realizarse agregando, a la SR, cantidades apropiadas de
impurezas o excipientes y/o al producto farmacéutico, cantidades
apropiadas de impurezas, demostrando que el resultado de la valoración
no se ve afectado por la presencia de estos materiales extraños.

b) Si no se dispone de dichos componentes (productos de degradación o


impurezas).

 La especificidad puede ser demostrada por comparación de los


resultados del ensayo con muestras que contienen impurezas o
productos de degradación a través de un segundo método
independiente (como por ejemplo, métodos farmacopeicos u otro
método analítico validado). Estas comparaciones deberían incluir
muestras almacenadas bajo condiciones exigentes de calor,
humedad, hidrólisis ácido-base y oxidación. En el caso de
valoraciones los dos resultados deberían compararse. En el caso de
ensayos cromatográficos para impurezas deberían compararse los
perfiles cromatográficos.

38
 Otra forma sería generar productos de descomposición mediante
degradaciones forzadas parciales (no mayor a un 20%):

Por ejemplo: en HPLC evaluar


pureza de pico (MS-HPLC,
Fotólisis
arreglo de diodos, relación a dos
Hidrólisis
Hidrólisis ácida (HCl 1N)  o degradación enzimática

Hidrólisis alcalina (NaOH 1N) específica).

Oxidación (H2O2) Para determinar si algún

Reducción producto de descomposición

Calor produce un pico superpuesto al


del analito y que no se alcance a
evidenciarlo.
Conviene complementar este
estudio con un método
alternativo TLC o GC, y
comparar los resultados (n0 y %
de los componentes de la
muestra degradada)

Criterios de aceptación
No deben observarse interferencias entre las señales de los excipientes,
impurezas de síntesis y/o productos de degradación y la señal o respuesta
(por ejemplo: absorbancia, área o altura de pico, etc.) del compuesto de
interés.

Linealidad e Intervalo

Definición
La linealidad de un método analítico es su capacidad de producir resultados
directamente proporcionales a la concentración de analito, dentro de un
intervalo de concentración. En algunos casos puede ser necesaria la aplicación
de transformaciones matemáticas para obtener una recta.

39
El intervalo se refiere al rango de concentraciones de analito que pueden ser
determinadas con precisión y exactitud. Normalmente se expresa con las
mismas unidades que los resultados del ensayo.

Determinación
La linealidad debe establecerse a lo largo del intervalo de concentraciones del
método analítico. Se debe establecer por medio de un método estadístico
adecuado (por ejemplo regresión por cuadrados mínimos). Deben informarse el
coeficiente de correlación (r), el coeficiente de determinación (r2) la ordenada al
origen (a) y la pendiente (b) de la recta de regresión.
Para establecer la linealidad se debe ensayar un mínimo de cinco
concentraciones con tres réplicas de cada uno y tres determinaciones de cada
réplica.
Se recomienda considerar los siguientes intervalos:
 Para la Valoración de una sustancia (o producto farmacéutico): 80-120% de
la concentración de ensayo.
 Para la determinación de Impurezas:LC (límite de cuantificación)-120% de
la especificación.
 Para la determinación de Uniformidad de contenido: 70-130% de la
concentración del ensayo a menos que se justifique otro intervalo de
acuerdo a la naturaleza de la forma farmacéutica.
 Para ensayos de Disolución:  20% del intervalo especificado.
 Para estudios de estabilidad: 40-120% de la concentración de ensayo.

Con los resultados obtenidos se evalúa la linealidad por el método de regresión


de los cuadrados mínimos, de tal manera de obtener la ecuación de una recta:
y = a + bx

 yi  b xi La ordenada (a) evalúa la proporcionalidad entre la


a
n señal y la concentración (si hay errores aleatorios, la
recta no pasa por cero)

40
 xi  yi
 xi yi  La pendiente (b) evalúa la sensibilidad del método.
b n
2  xi 
2
 xi 
n

 xi  yi
 xi yi  El coeficiente de regresión lineal (r)
r n
mide el ajuste al modelo lineal.
(  xi )2 (  yi )2 
(  xi 2  )(  yi 2 
n n 

El valor r=1 indica una recta perfectamente lineal; un valor r=0 indica la no
correlación entre x e y. Sin embargo, el mejor indicador del modelo lineal no es
r sino un test estadístico de Student (t), en el cual se calcula un valor de tr para
(n-2) grados de libertad y se compara con el valor t tabulado para el nivel de
confianza requerido.
En este caso, la Hipótesis Nula (H0) es la no correlación entre x e y. Si el valor
observado de tr es mayor que t de tabla, se rechaza la hipótesis nula, siendo la
correlación lineal significativa con la probabilidad calculada.

r (n  2) Donde r2 = coeficiente de determinación


tr  n = número de determinaciones independientes
(1  r 2 )

Los límites de confianza del estimador de la pendiente (b) y la ordenada al


origen (a) se
calculan en función de sus varianzas.

2
2  xi
S a  Sb
n

2
Sxy 2  yi  a  y i  b x i y i
Sb 
(  x )2 Sxy 2 
2 i n2
 xi 
n

41
[b  t Sb]
Luego los intervalos de confianza serán:
[a  t Sa]

Siendo t el que figura en tabla de Student para cierto nivel de confianza,


generalmente 0,05 y (n-2) grados de libertad.

Criterios de aceptación
 Coeficiente de correlación:
 para Macrocomponentes, r ≥ 0,99 y r2 ≥ 0,98
 para Impurezas, r ≥ 0,98.
 Intervalo de confianza de la ordenada al origen: debe incluir al cero.

Exactitud

Definición
La exactitud, interpreta los errores sistemáticos o tendencia de un método
analítico, expresa la proximidad entre el resultado obtenido y “el valor
verdadero”. Debe establecerse en todo el rango especificado para el método
analítico.
Matemáticamente suele expresarse de los siguientes modos:

 Error absoluto  X  Xˆ

( X  Xˆ )  100 X : valor medio exp erimental


 Error relativo % 
Xˆ X̂ : valor verdadero
X  100
 Recuperación 

Los errores deben ser tan pequeños como sea posible para que el valor medio
experimental se aproxime al de referencia o verdadero, si no fuera así y según
su significancia los aceptaremos o reformularemos el protocolo de aplicación
del método, para minimizarlos o adaptarlos a los requerimientos exigidos para
cada método analítico, en lo que a errores se refiere.

42
Dicho de otro modo, la recuperación debe acercarse al 100%, En todos los
casos, la exactitud debe evaluarse mediante el diseño que emplea un mínimo
de nueve determinaciones sobre un mínimo de tres niveles de concentración
que cubran el intervalo especificado para linealidad, por ejemplo tres
concentraciones al 80, 100 y 120% del valor esperado, al que se le agregan los
excipientes del producto (Ensayo de Recuperación), con tres repeticiones
completas del método para cada una de las concentraciones. Puede utilizarse
un test t de Student, efectuando varias determinaciones de la muestra de
concentración conocida y calculando el t experimental, tob , que se compara con
el t de tabla para (n-1) grados de libertad en el nivel de confianza escogido,
generalmente p = 0,05.
[H0: no hay error sistemático]

X̂  X Si tob < t de tabla, no existen diferencias significativas


t ob  entre recuperación media y 100 % y por lo tanto el
S
método tiene la exactitud requerida para ese ámbito
n
de confianza.
100  R Si tob > t de tabla, el método tiene un error sistemático
t ob 
CV para ese ámbito de confianza.
n S: desviación estándar,
n: número de determinaciones independientes.
R: recuperación porcentual promedio de todas las
concentraciones.
CV: coeficiente de variación.

Por otra parte, resulta conveniente graficar en todos los casos descriptos a
continuación, masa hallada vs. masa agregada, rectificando por el método de
los cuadrados mínimos. En este caso r ≥ 0.99, la pendiente deberá ser cercana
a 1 o el Intervalo de confianza de la pendiente incluir al 1 y la ordenada al
origen deberá ser próxima a 0 o el intervalo de confianza de la ordenada incluir
al 0. Si la pendiente fuera significativamente distinta de 1 indica un error
proporcional (por ejemplo, debida a la extracción de un porcentaje constante
del componente). Una ordenada al origen significativamente diferente a cero
indica un error de tendencia constante y se visualiza como una recta paralela a

43
la teórica, en la cual el valor de la ordenada al origen corresponde a la
magnitud del error.
Si no es posible obtener muestras de todos los componentes del producto,
puede ser aceptable agregar cantidades conocidas del analito al producto
(Método del Estándar Agregado) o comparar los resultados obtenidos con un
segundo método cuya exactitud haya sido establecida.

Cm: concentración de la muestra o


(Cm  s  Cm) 100 producto sin agregado de SR.
% Re cuperación 
Cs Cm+s: concentración de muestra + SR.
Cs: concentración de SR

Precisión

Definición
La precisión de un método analítico es el grado de concordancia entre los
resultados del ensayo individual cuando el método se aplica repetidamente a
varias alícuotas de una muestra homogénea. Está relacionada con la
dispersión de las medidas alrededor de su valor medio o central. La precisión
de un método analítico generalmente se expresa como la desviación estándar
(), estimada analíticamente por S o más comúnmente con la desviación
estándar relativa o coeficiente de variación (CV).
El estimador S de la desviación estándar se calcula como:

S

 xi x 
2

siendo x 
 xi , el estimador de la media poblacional
n 1 n

S 100
CV 
X

44
Ambos estimadores, desviación estándar y CV permiten evaluar los errores
aleatorios en la estimación de la medida correspondiente a la dispersión de
datos alrededor de la media.
La precisión puede ser considerada en tres niveles:
 Repetibilidad o Precisión Intra-ensayo: expresa la precisión bajo las
mismas condiciones operativas en un intervalo de tiempo corto (mismo
analista, mismo día, mismo equipo y condiciones).
 Precisión intermedia o Precisión Inter-día: expresa las variaciones
intralaboratorio, es decir, distintas condiciones en distintos días, dentro del
mismo laboratorio (diferentes días, diferentes analistas, diferentes equipos,
etc.)
 Reproducibilidad o Fortaleza: expresa la precisión entre laboratorios
(estudios colaborativos)
Determinación
La precisión de un método analítico debe estudiarse sobre:
 El sistema: se calcula como el coeficiente de variación (CV%) de 6
determinaciones de una misma solución del Estándar del Principio activo, al
100% o de 9 determinaciones (3 a tres concentraciones)
 El método: se calcula como el CV% de 6 muestras de una misma
concentración (al 100% o 9 a 3 concentraciones). La evaluación
corresponde a todo el procedimiento, desde la preparación de la muestra
hasta la medición del analito por parte del instrumento.
Criterio de Aceptación: CV ≤ 2%

Sensibilidad: Límite de Detección (LD) Límite de Cuantificación (LC)

La sensibilidad de un método analítico corresponde a la mínima cantidad de


analito que puede producir un resultado significativo. Un método es sensible
cuando frente a una pequeña variación en la concentración se obtiene una
significativa variación en la señal.
Se debe diferenciar claramente entre dos tipos de sensibilidad:

45
 Sensibilidad de calibración, correspondiente a la pendiente de la curva de
calibración.
 Sensibilidad analítica, correspondiente al cociente entre la sensibilidad de
calibración y la desviación estándar de la medida.
Resulta claro que dos técnicas o la misma técnica empleada para diferentes
matrices, pueden tener la misma sensibilidad de calibración, pero diferente
sensibilidad analítica debida a factores propios como necesidad de extracción,
concentración, etc.
Los parámetros a definir al evaluar la sensibilidad de un método son los límites
de detección y de cuantificación.
Definiciones
El límite de detección es la concentración más baja de analito que puede
detectarse, pero no necesariamente cuantificarse, en una muestra bajo las
condiciones experimentales establecidas.
El límite de cuantificación es la menor concentración de analito que puede
determinarse con precisión y exactitud en una muestra, bajo las condiciones
experimentales establecidas.
Determinación
Existen diversas maneras para determinar el límite de detección, dependiendo
de si se trata de un método no instrumental o instrumental.
 Para métodos no instrumentales: ambos límites se determinan por el
análisis de muestras con concentraciones conocidas de analito y
estableciendo el mínimo nivel al cual el analito puede ser detectado en
forma confiable (LD) y el mínimo nivel al cual puede ser cuantificado con
precisión y exactitud (LC). Se los suelen llamar Métodos de los Falsos
Negativos.
 Para métodos instrumentales que exhiben ruido de fondo. Para el límite
de detección puede efectuarse por comparación con la respuesta de un
blanco o placebo, siendo positiva cuando la señal del analito supere la
relación señal/ ruido en un factor de 2 o 3. Para el límite de cuantificación se
mide la señal de fondo (relación señal/ ruido); efectuando mediciones
repetidas sobre un blanco o placebo, se mide su desviación estándar y se

46
calcula el límite de cuantificación multiplicando esa desviación por un factor,
generalmente 10. El valor resultante se valida por análisis de un número
variable de muestras de concentración cercana al límite fijado.
Dado que la determinación de los límites de detección y de cuantificación
supone un trabajo importante, en general sólo se efectúa para el análisis de
impurezas o trazas o cuando el rango analítico se encuentra muy próximo al
límite de detección. En caso contrario, sólo se estudia la precisión y la exactitud
en la menor concentración probable para el analito.
Ambos límites también pueden estimarse a partir de la curva de regresión,
siempre que se hayan considerado concentraciones bajas de analito, por
extrapolación a cero:

1. Se determina la pendiente (b) de la curva de calibración (concentración


vs respuesta) en el rango apropiado.
2. Se obtiene otra curva de calibración, cada punto por triplicado, pero en
este caso para concentraciones menores de analito, determinándose la
ecuación de esta nueva recta de calibración y se extrapola la respuesta
a concentración cero, obteniéndose un estimado de la respuesta del
blanco: Ybl.
3. Se determina la desviación estándar (s) correspondiente a cada
concentración del punto 2, se calcula la recta correspondiente a
concentración vs s y se extrapola como en el caso anterior la desviación
estándar a concentración cero, obteniéndose el estimado Sbl
correspondiente a la desviación estándar del blanco.
4. Se calculan ambos límites para n’ medidas individuales como:
Y  3S bl Y  10S bl
LD  bl LC  bl
b n' b n'
Cualquiera sea el método empleado, el LD y LC debe ser confirmado por medio
del análisis de un número apropiado de muestras con concentraciones
similares a los límites hallados.

47
Robustez

Definición
La robustez de un método analítico es la medida de su capacidad de no verse
afectado por variaciones pequeñas, pero deliberadas, en los parámetros del
método y proporciona una indicación de su confiabilidad. Ejemplos de
variaciones que deben estudiarse durante la evaluación de la robustez son:
 diferentes instrumentos,
 diferentes lotes de reactivos,
 diferentes tiempos de valoración,
 diferentes temperaturas,
 diferentes columnas cromatográficas (distintos lotes o proveedores).
La robustez se expresa como la falta de influencia de las variables operativas y
del entorno sobre los resultados del ensayo y dará confianza al método en su
aplicación frente a cambios imprevistos en los equipos utilizados, en los
analistas encargados de aplicarlo o en otros parámetros que se puedan alterar
durante la utilización del mismo.

Determinación

Se determina mediante el análisis de alícuotas a partir de lotes homogéneos


empleando condiciones operativas diferentes pero que están dentro de los
parámetros específicos en la valoración. El grado de reproducibilidad de los
resultados del ensayo se compara con la precisión de la valoración bajo
condiciones normales para obtener una medida de la robustez del método
analítico.

Valoraciones respetando el diseño habitual:


Mínimo 3 niveles que incluyan a todo el intervalo (80%- 100%- 120%)
Si quisiera modificar todas las variables en cada uno de los ensayos, tendría
que realizar numerosos ensayos.

48
A fin de organizar y disminuir el número de ensayos, se puede diseñar el
estudio utilizando una Matriz de Placket-Burman (Diseño de Experimento
Multifactorial) donde para (n) variables se realizan (n+1) ensayos.

Diseño de Placket-Burman:

Número de ensayo
Variables 1 2 3 4 5 6 7 8
A a a a a A A A A
B b b B B b b B B
C c C c C c C c C
D d d D D D D d d
E E e E e e E e E
F F f f F F f f F
G G g g G g G G g
% SVD s t u v w x y z
Ensayos: 1,2…8 Variables: A,B…G Parámetros: s,t…z

Para cada variable elijo 2 niveles: por ejemplo (A) extremo o alto y (a) Nominal
o bajo.
Hallar para cada variable evaluada la DP: diferencia promedio:
DP = (Promedio de las valoraciones obtenidas a altos niveles) – (Promedio
de las valoraciones obtenidas a bajos niveles).

El criterio de aceptación según este diseño es:


Para cada variable evaluada: DP SD √2 (No hay Diferencias
Significativas)
(Donde SD: desviación estándar obtenida en el ensayo de repetibilidad)

Ventaja: en un diseño normal de “una variable por vez”, el estudio de 5


variables resultaría en 25 = 32 ensayos, en cambio siguiendo este diseño serían
solamente 6 ensayos.
Cálculo de las DP de respuesta para cada parámetro:

49
Parámetros Diferencia (DP)

A–a DPA = ¼ (w+x+y+z) - ¼ (s+t+u+v)


B–b DPB = ¼ (u+v+y+z) - ¼ (s+t+w+y)
C–c DPC = ¼ (t+v+x+z) - ¼ (s+u+w+y)
D–d DPD = ¼ (u+v+w+x) - ¼ (s+t+y+z)
E–e DPE = ¼ (s+u+x+z) - ¼ (t+v+w+y)
F–f DPF = ¼ (s+v+w+z) - ¼ (t+u+x+y)
G-g DPG = ¼ (s+v+x+y) - ¼ (t+u+w+z)

Recordar: La validez de un método analítico puede comprobarse sólo


mediante estudios de laboratorio. En consecuencia, la documentación que
avale tales estudios es un requisito básico para determinar si un método es
apropiado para una aplicación determinada. Cualquier método analítico
propuesto debe estar acompañado de la documentación necesaria.

Aptitud del Sistema (Test de Adecuabilidad o System Suitability Test)

Es una herramienta cuya aplicación permitirá verificar que determinados


parámetros instrumentales se mantienen bajo control, confirmando que nuestro
sistema en particular, brindará resultados dentro de los límites especificados,
es útil ya que son habituales las variaciones en la estabilidad de los reactivos,
equipos y analistas, por ejemplo en HPLC la variación del pH de la FM,
diferentes lotes de columnas, la temperatura, el flujo, etc.
Los parámetros del Test de Adecuabilidad se deben establecer para cada tipo
de método en particular. Su principal aplicación es en métodos
cromatográficos. Se emplea para comprobar que la resolución y la
reproducibilidad del sistema cromatográfico por HPLC son aptas para realizar
el ensayo. Los parámetros de aptitud del sistema se determinan para el pico de
la sustancia, a menos que se especifique de otro modo en la monografía
correspondiente. Si es necesario, pueden realizarse ajustes en las condiciones
operativas para cumplir con los requisitos de aptitud del sistema, entre ellos,

50
las proporciones de los componentes de la fase móvil y el caudal. La resolución
R es una función de la eficiencia de la columna y se especifica para asegurar
que las sustancias que eluyan muy cercanas se resuelvan entre sí y para
asegurar que los estándares internos se resuelvan de las sustancias a ensayar.
La eficiencia de la columna, determinando el Número de Platos Teóricos (N),
puede especificarse también como requisito de aptitud del sistema,
especialmente si hay solo un pico de interés en el cromatograma, sin embargo,
el valor aislado de eficiencia no puede asegurar la resolución para el sistema
en estudio. La eficiencia de la columna es una medida de la agudeza de los
picos, importante para detectar componentes en baja concentración. Para
evaluar si se cumplen los requisitos de aptitud del sistema se realizan
inyecciones repetidas de la Preparación estándar empleada en la Valoración u
otra Solución estándar. A menos que se especifique de otro modo en la
monografía correspondiente, para calcular la desviación estándar relativa
(RSD) o Coeficiente de Variación (CV), se emplean los datos de cinco
inyecciones repetidas del estándar si el requisito es 2,0% o menor, y seis
inyecciones repetidas si el requisito de la desviación estándar relativa es mayor
de 2,0% .
El factor de asimetría (As) o tailing, una medida de la simetría del pico, es 1
para los picos perfectamente simétricos y su valor aumenta a medida que la
asimetría es más pronunciada. En algunos casos, pueden observarse valores
menores de la unidad. Como consecuencia de la asimetría del pico, la
integración y la precisión se tornan menos confiables.
W0,05
As  ; en el cual W 0,05 es el ancho del pico al 5% de altura y f es la
2f
distancia entre el borde simétrico del pico y el centro del mismo medida al 5%
de la altura.
Estos datos se obtienen a partir de inyecciones repetidas del estándar u otras
soluciones según se especifique en la monografía correspondiente.

51
Métodos para evaluar resultados anómalos

Es sabido que determinaciones repetidas aplicadas sobre una misma muestra


no siempre dan resultados concordantes. Para evaluar si estos resultados son
anómalos y se los puede rechazar se recurre a diversos test estadísticos como
por ejemplo:
 Test de Dixon
 Test de Grubbs
En ambos con la observación sospechosa se calcula un estadístico de prueba,
el cual se compara con un valor límite basado en la suposición de un
comportamiento aleatorio de los datos.
En el test de Dixon si el valor del estadístico supera el tabulado para una
determinada probabilidad, se considera que es poco probable que ese dato se
obtenga de un muestreo aleatorio de la población de resultados posibles y por
lo tanto se lo considera anómalo.
El test de Grubbs es a la inversa.

Test de Dixon

Aplicado cuando tenemos un solo dato sospechoso.


Se procede de la siguiente manera:
1. Se ordenan los datos obtenidos en forma creciente
2. Si el dato sospechoso es el mayor (Xn), se calcula un estadístico Q:
Q = (Xn – X(n-1))/(Xn – X1)
3. Si el dato sospechoso es el menor (X1):
Q = (X2 – X1)/(Xn – X1)
4. Se compara el valor de Q con el valor crítico para (n) grados de libertad
5. Si el valor obtenido es mayor que el crítico se concluye que el dato es
anómalo

52
Test de Grubbs

Aplicado cuando tenemos dos datos sospechosos. Se aplica de la siguiente


manera:
1. Se ordenan los datos obtenidos en forma creciente
2. Se calcula la varianza de los mismos eliminando los 2 datos
sospechosos
3. Se calcula la varianza para todos los datos
4. Se obtiene el cociente entre ambas varianzas
5. Se compara el valor obtenido con el de tabla para (n) grados de libertad.
6. En este caso como, es un test por disminución, si el valor obtenido es
menor que el crítico se concluye que los 2 datos son anómalos

Resumiendo:

 La Validación de un Método Analítico debe ser verificada únicamente por


estudios de laboratorio.
 Debe estar adecuadamente documentada.
 Cada parámetro de validación debe determinarse con un Estándar o
Sustancia de Referencia.
 La exigencia de uno u otro parámetro dependerá del uso del método, es
decir, del destino del método.
 Los métodos Farmacopeicos no deben ser validados, excepto los
destinados a Estudios de Estabilidad o Validación de Limpieza.
 Únicamente se les aplicará el Test de Aptitud del Sistema (Test de
Adecuabilidad)
 Los métodos se deben Revalidar cuando se introduce algún cambio en
el mismo o cuando la matriz y/o la concentración del analito en un producto se
ha modificado.

53
Preguntas Orientadoras

1. Qué métodos analíticos se incluyen en la Categoría II de las


Farmacopeas?
2. Si Ud. deseara estudiar la robustez de un método, ¿cómo diseñaría
el estudio? Indique qué variables y qué niveles de cada una de ellas
elegiría, y la forma general de realizar el ensayo.
3. Describa los métodos que Ud. conoce para evaluar la selectividad de
un método analítico.
4. Cuál es la Hipótesis Nula (H0) al aplicar el Test de Student para
evaluar Exactitud?

Test de Autoevaluación

1. En la validación de un método analítico destinado al control de una


especialidad, qué parámetro debe determinar para evaluar errores
inherentes al mismo:
(a) Selectividad
(b) Límite de cuantificación
(c) Exactitud
(d) Linealidad

2. En la validación de un método analítico, qué parámetro debe


determinar para evaluar si el método es reproducible:
(a) Selectividad
(b) Límite de cuantificación
(c) Exactitud
(d) Precisión

3. Qué parámetro debe determinar para evaluar que los excipientes no


interfieren:
(a) Especificidad

54
(b) Límite de cuantificación
(c) Exactitud
(d) Linealidad

4. Cómo se expresa la Exactitud?


(a) Desviación estándar
(b) Error relativo
(c) Pendiente de la curva de calibración
(d) Intervalo de confianza

5. La Fortaleza de un método analítico expresa:


(a) Precisión del Sistema
(b) Robustez
(c) Reproducibilidad
(d) Datos no anómalos

6. La ordenada al origen de una curva de calibración evalúa:


(a) La dispersión del método
(b) La sensibilidad del método
(c) La presencia de errores aleatorios
(d) La presencia de productos de degradación

Bibliografía

1. Ministerio de Salud – ANMAT. Farmacopea Argentina. VII ed. (2003)


Buenos Aires.
2. International Conference on Harmonisation (ICH) Validation of Analytical
Procedures: Text and Methology (2005) Silver Spring.
3. Farmacopea de los Estados Unidos de América (USP 34) (2011)
Rockville.
4. Quattrocchi, O.; Abelaira de Andrizzi, S. I.; Laba, R.F. (1992)
Introducción a la HPLC. Aplicación y Práctica. Buenos Aires: Artes Gráficas
Farro

55
CAPITULO 3
CROMATOGRAFÍA EN CAPA FINA (TLC)
Pablo Quiroga

Introducción

Las técnicas de separación cromatográficas, son métodos de separación de


múltiples etapas en los que los componentes de una muestra se distribuyen
entre dos fases, una de las cuales es estacionaria y la otra móvil.
La cromatografía en capa fina, es una de las técnicas más ampliamente
utilizadas para la separación, identificación y determinación de pureza de
drogas en su estado puro, o formando parte de una especialidad medicinal,
drogas vegetales, fitoterápicos y/o muestras biológicas. Es una técnica analítica
de elección por su simplicidad, confiabilidad, bajo costo y versatilidad en la
detección de sustancias, a través del uso de diversos procedimientos de
localización.
La cromatografía en capa fina (TLC), es una forma de cromatografía de
adsorción en la cual la fase móvil se mueve por capilaridad a través de la fase
estacionaria (adsorbente) aplicada como una capa fina y uniforme sobre un
soporte inerte (vidrio, plástico, lámina de aluminio). La TLC puede ser
considerada como una cromatografía de lecho abierto, y el mecanismo de
separación se basa generalmente en un proceso de adsorción, sin embargo,
es factible que ocurra un proceso de partición o a una combinación de ambos
efectos, dependiendo del tipo particular de adsorbente, su preparación y el uso
con diferentes fases móviles. Si por ejemplo la fase móvil contiene agua,
metanol, u otro solvente muy polar, este líquido puede ser adsorbido desde la
fase móvil que está avanzando, convirtiendo así el sistema de adsorción en un
sistema cromatográfico de partición.
Cuando una mezcla de drogas se siembra sobre la placa y se desarrolla el
cromatograma, cada sustancia correrá distancias diferentes a través de la
placa dependiendo de afinidad por cada una de las fases (determinada por su

56
polaridad), sus valores de pKa, su capacidad de formar uniones de hidrógeno,
etc.

Parámetros básicos en Cromatografía en capa fina - Rf y Rx

Los parámetros cromatográficos utilizados en TLC son Rf (Relación de Frente)


y Rx. Rf es la relación entre la distancia recorrida por la sustancia y la distancia
recorrida por el frente de la fase móvil, ambas medidas desde el punto de
siembra (aproximadamente a 2 cm. del extremo inferior de la placa) al centro
de la mancha si esta es redonda o al centro del área de más intensidad si la
mancha tiene cola. Rx se calcula como el cociente entre la distancia recorrida
por la sustancia y la distancia recorrida por la sustancia de referencia eluida
bajo condiciones idénticas, ambas distancias medidas de la misma manera que
las distancias para calcular el Rf.
Los valores de Rf pueden estar comprendidos entre 0 y 1, mientras que los
valores de Rx pueden ser mayores que 1.

Rf varía con las condiciones experimentales. Los factores que afectan la


reproducibilidad de Rf son:
Fase estacionaria: calidad del adsorbente, espesor de la capa, activación de la
placa, distribución y tamaño de las partículas.
Fase móvil: calidad y pureza de los solventes. Debe prepararse para cada
corrida debido a que los solventes pueden ser volátiles o higroscópicos.
Cámara de desarrollo: saturación de la misma (mínimo 30 minutos antes de la
corrida).
Temperatura: la cámara de desarrollo no debe colocarse cerca de fuentes de
calor, ni luz solar directa, ya que un aumento de temperatura aumenta la
volatilidad de solventes, y Rf decrece ligeramente
Cantidad de siembra: aumentar la cantidad de masa sembrada frecuentemente
produce un incremento de los valores de Rf especialmente por efecto de la
cola de las manchas.

57
Para mejorar la reproducibilidad del Rf, es necesario cromatografiar en la
misma placa la muestra problema y la sustancia de referencia.

Aplicaciones de la TLC

En el Análisis Farmacéutico, se utiliza habitualmente para identificación de


principios activos y determinación de pureza cromatográfica de los mismos
Bajo condiciones controladas puede ser empleada como técnica de
cuantificación.
Criterio de Identidad. Consiste en cromatografiar simultáneamente la sustancia
desconocida, la sustancia de referencia y una mezcla de cantidades
aproximadamente iguales de ambas. De cada muestra deberá sembrarse
aproximadamente la misma cantidad de material a cromatografiar. Si la
sustancia desconocida y la referencia corren distancias iguales (igual Rf), si Rx
= 1 y si la mezcla de ambas se comporta como una sola sustancia (mancha
única) puede presumirse que se trata de la misma sustancia, presunción que
puede reforzarse si se ensaya en 3 o 4 condiciones cromatográficas distintas
y los resultados son coincidentes. Muchos compuestos isoméricos no logran
separarse. Por lo general se combina alguna prueba no cromatográfica (tal
como historia de la muestra, UV, IR, reacciones coloreadas, etc.) con los datos
de TLC para establecer la prueba de identidad.
Criterio de pureza. Una sustancia es cromatográficamente pura, cuando al ser
sometida a distintas condiciones cromatográficas se comporta en todos los
casos como una única sustancia (única mancha). Aunque nunca es posible
demostrar que un producto es puro, es posible afirmar que no contiene
determinadas impurezas o si las hay están en cantidades menores a los límites
detectables. Por ejemplo, el ácido acetil salicílico (AAS) y el ácido salicílico
(AS) pueden separase por TLC. Si una muestra de AAS se cromatografía con
la aparición de una mancha única correspondiente al valor de Rf del AAS,
entonces puede decirse que el AS, si lo hay en la muestra, es en cantidad
menor que el límite de detección del método para AS.

58
Ensayo de Pureza cromatográfica / Sustancias relacionadas. Estos ensayos
están codificados como: Ensayo de Pureza Cromatográfica en la Farmacopea
de Estados Unidos (USP) y como Ensayo de Sustancias Relacionadas en
Farmacopea Europea (EP) y Británica (BP), en diferentes monografías. Los
mismos consisten en determinar que las impurezas que puedan acompañar a
una determinada materia prima, no superen los límites codificados o
preestablecidos; por debajo de estos límites se puede garantizar que la
muestra cumple con los ensayos de calidad. Una impureza es un componente
de la droga o de un producto terminado (excluyendo el agua) que no es la
entidad química definida como la droga. Pueden ser por ej. subproductos de
síntesis, productos de degradación, sustancias estructuralmente relacionadas
con la droga, impurezas originadas en el proceso de manufactura.
Hay casos en los que no se requiere conocer la identidad de las impurezas,
entonces el ensayo se realiza efectuando diluciones convenientes de la
muestra problema y realizando una comparación visual de las intensidades de
las manchas sobre la cromatoplaca, una vez reveladas. Cuando se necesita
identificar y cuantificar alguna impureza en particular es necesario contar con
la sustancia de referencia de la misma. Estos ensayos son aplicables tanto a
materia prima como a producto terminado.
A continuación, se describen dos ejemplos de aplicación para este tipo de
ensayo, uno aplicable a materia prima y otro a producto terminado:
Ejemplo 1: Ensayo de Pureza Cromatográfica - Metoclopramida Clorhidrato
Materia Prima - USP 34.
Condiciones Cromatográficas:
Fase estacionaria: silicagel GF254
Fase móvil: cloroformo: metanol: tolueno: hidróxido de amonio (140:60:20:1)
Revelador: UV 254nm
Especificación: ninguna mancha secundaria presente en el cromatograma de
la muestra, debe ser más intensa o más grande que la mancha
correspondiente al 0.5 % y la suma de las intensidades de todas las manchas
secundarias presentes en el cromatograma de la muestra, no debe ser mayor
que el 1.0%.

59
Nota: Se cuenta con Metoclopramida Clorhidrato Sustancia de Referencia
(Título: 100 % sdtc)
Resolución:
Lo primero que debemos considerar es el cálculo del Límite de Detección (LD)
de metoclopramida clorhidrato, utilizando la sustancia de referencia de dicho
principio activo. A los fines de este capítulo, definimos Límite de Detección
como la menor cantidad de principio activo y/o impurezas o sustancias
relacionadas en unidades de masa (µg) que es detectable y cuantificable de
manera reproducible en las condiciones de trabajo.
Para este ejemplo consideraremos el LD = 0.5 µg
En este ejemplo, tenemos que responder a una especificación con dos criterios
de aceptación, y no se exige la identificación de las impurezas o sustancias
relacionadas, por lo cual no es necesario contar con sustancia de referencia de
las mismas. Podemos proceder de acuerdo 2 opciones que se describen a
continuación;
Opción1. Considerar que el LD corresponde al 0.5 % de la cantidad a sembrar
(en unidades de masa) de la materia prima bajo estudio (una de los criterios de
aceptación de la especificación).
Opción 2. Considerar que el LD corresponde a un % de la cantidad a sembrar
(en unidades de masa) de la materia prima bajo estudio menor al 0.5 %.
A continuación, desarrollaremos ambas opciones:
Opción 1:
Asignamos al LD (0.5 µg), el 0.5 % respecto de la cantidad a sembrar (en
unidades de masa) de la materia prima bajo estudio (Muestra), al realizar está
consideración, nos aseguramos que todas aquellas impurezas o sustancias
relacionadas que estén presentes en la materia prima en un % ≥ a 0.5%, serán
detectadas ya que corresponden a una cantidad igual o mayor al LD, teniendo
en cuenta esto último, debemos calcular la cantidad en unidades de masa que
debemos sembrar de materia prima en la placa, de manera que todas aquellas
impurezas que estén presentes en un % ≥ a 0.5 % puedan ser detectadas.
0.5%...............................0.5 µg (LD)
100%..............................100 µg

60
Debemos sembrar 100 µg al menos de materia prima bajo estudio, para poder
visualizar todas aquellas impurezas o sustancias relacionadas que estén
presentes en la misma en un % ≥ a 0.5 %.
Preparación de las soluciones de trabajo:
Solución de Metoclopramida Sustancia de Referencia (Sol. SR 1): 50 mg de la
SR, se disuelven en 50 de metanol de manera de obtener una solución de 1
mg/ml – 1 µg/µl.
Sol.SR A: realizar una dilución 1 en 20 de la Sol. SR 1 en metanol: 0.05 mg/ml-
0.05 µg/µl.
Solución SR para identificación (Sol SR I): realizar una dilución 1 en 2 de la Sol.
SR 1 en metanol: 0.50 mg/ml- 0.50 µg/µl.
Solución de la Muestra en estudio (Sol. M): 500 mg de la materia prima bajo
estudio, se disuelven en 50 de metanol de manera de obtener una solución de
10 mg/ml – 10 µg/µl.
Se siembran 10 µl de cada una de las soluciones, resultando:
Sol. SR I: 0.50 µg/µl x 10 µl= 5 µg
Sol. SR A: 0.05 µg/µl x 10 µl= 0.5 µg
Sol. M: 10 µg/µl x 10 µl= 100 µg
A continuación se muestra la placa cromatográfica resultante:

En este caso, luego de revelar la placa, como no aparece ninguna mancha


secundaria en el cromatograma de la muestra y como 0.5 µg, representa el 0.5
% de los 100 µg sembrados de la muestra de la materia prima en estudio,,
podemos concluir que ninguna mancha / impureza está presente en un % ≥ al
0.5%, pero no podemos decir nada acerca de la especificación que indica
que, la suma de las intensidades de todas las manchas secundarias

61
presentes en el cromatograma de la muestra no debe ser mayor que el 1.0 %.
Por lo tanto la opción desarrollada anteriormente, no es la más adecuada o la
más correcta para evaluar el cumplimiento de la especificación tal cual como la
hemos planteado. Para responder a la misma y utilizando una sola placa
cromatográfica desarrollaremos a continuación la opción 2.
Opción 2: consideraremos que nuestro LD = 0.5 µg, corresponde al 0.1 %
respecto del total a sembrar de la materia prima bajo estudio, al proponer está
relación, nos aseguramos que todas aquellas impurezas o sustancias
relacionadas que estén presentes en la materia prima en un % ≥ a 0.1 %, serán
detectadas/ cuantificadas, ya que corresponden a una cantidad igual o mayor al
LD, teniendo en cuenta esto último, procederemos a calcular la cantidad en
unidades de masa que debemos sembrar de la materia prima bajo estudio en
la placa, de manera que todas aquellas impurezas que estén presentes en un
% ≥ a 0.1 % puedan ser detectadas / cuantificadas.
0.1 %...............................0.5 µg (LD)
100 %..............................500 µg
Debemos sembrar al menos 500 µg de la materia prima, para poder detectar /
cuantificar aquellas impurezas o sustancias relacionadas que estén presentes
en la misma en un % ≥ a 0.1 %.
Preparación de las soluciones de trabajo:
Solución de Metoclopramida Sustancia de Referencia (Sol. SR 1): 50 mg de la
SR, se disuelven en 50 de metanol de manera de obtener una solución de 1
mg/ml – 1µg/µl.
Solución SR para identificación (Sol SRI): realizar una dilución 1 en 2 de la Sol.
SR 1 en metanol: 0.50 mg/ml- 0.50 µg/µl.
A partir de la Sol. SR 1 realizamos las diluciones en metanol, que se describen
en la siguiente Tabla:
Porcentaje (%) respecto de la cantidad
Sol. SR Dilución Conc. µg/µl
sembrada de MP
A 1 en 4 0.25 0.5
B 3 en 20 0.15 0.3
C 1 en 20 0.05 0.1
Tabla 1. Diluciones correspondientes a la Solución SR1

62
Solución de la Muestra en Estudio (Sol. M): 500 mg de la materia prima bajo
estudio, se disuelven en 10 ml de metanol de manera de obtener una solución
de 50 mg/ml – 50 µg/µl.
Se siembran 10 µl de cada una de las soluciones, resultando:
Sol. SR1: 0.50 µg/µl x 10 µl= 5 µg
Sol. SR A: 0.25 µg/µl x 10 µl= 2.5 µg
Sol. SR B: 0.15 µg/µl x 10 µl= 1.5 µg
Sol. SR C: 0.05 µg/µl x 10 µl=0.5 µg
Sol. M: 50 µg/µl x 10 µl= 500 µg
A continuación en una placa cromatográfica, se ejemplifica uno de los
resultados posibles:

A partir de la placa anterior, observamos que aparecen dos manchas


secundarias en el cromatograma de la muestra, para comprobar el
cumplimiento o no de la especificación, procederemos de la siguiente manera:
comparamos el tamaño e intensidad de cada una de las manchas secundarias
presentes en el cromatograma de la muestra, con el tamaño e intensidad de
las manchas de las soluciones de referencia, en este caso, observamos que
ambas manchas secundarias tienen un tamaño e intensidad menor que la
mancha de la Sol. SR A (0.5%), por lo tanto podemos confirmar, que ninguna
impureza está presente en un % ≥ al 0.5 % en la muestra evaluada, las otras
manchas secundarias presentes, corresponden al 0.3 % y al 01 %, resultando
la suma de todas las manchas secundarias presentes en el cromatograma de
la muestra igual al 0.4%, lo cual es menor que el límite máximo permitido del

63
1% de la especificación. Procediendo de acuerdo a lo descripto en la opción 2,
podemos responder a la especificación y podemos concluir que la materia
prima bajo estudio, cumple con el Ensayo de Pureza Cromatográfica.
Ejemplo 2: Ensayo de Sustancias Relacionadas Paracetamol Comprimidos –
British Pharmacopoeia - 2005.
Condiciones Cromatográficas:
Fase estacionaria: silica gel GF254
Fase móvil: tolueno: acetona: cloroformo (10:25:65)
Revelador: UV254nm
Especificación: Ninguna mancha correspondiente a 4´cloroacetanilida, presente
en el cromatograma de la solución Muestra 1 no debe ser más intensa que la
intensidad de la mancha obtenida con la solución 3. Ninguna mancha
secundaria obtenida en el cromatograma de la solución Muestra 2 con Rf
menor que la 4´cloroacetanilida debe ser más intensa que la mancha obtenida
con la solución 3. El ensayo es válido si el cromatograma obtenido con la
solución 4, muestra claramente la separación entre las dos manchas
principales y la mancha correspondiente a la 4´cloroacetanilida, tiene mayor
valor de Rf.
Formula cuali-cuantitativa - Paracetamol comprimidos:
Paracetamol ……………1000 mg
Excip. Csp……………….1350 mg
En la monografía correspondiente se describe el siguiente procedimiento para
la preparación de las distintas soluciones.
Preparación de las soluciones de trabajo:
Solución Muestra 1 (Sol. M1): se pesan 10 comprimidos de paracetamol, se
pulverizan en mortero y a partir del polvo se pesan 1350 mg, equivalentes a
1000 mg de paracetamol, se transfieren a un tubo de centrifuga de 20 ml y se
adicionan 5 ml de éter libre de peróxido, se agita durante 30 minutos, se
centrifugan a 1000 r.p.m. durante 15 minutos y a partir de sobrenadante se
siembran 200 µl.
Solución Muestra 2 (Sol. M2): diluir 1 ml del sobrenadante de la solución
Muestra 1 a un Vf de10 ml con etanol 96%.

64
Solución 4´cloroacetanilida (Sol. 3): 50 mg de 4´cloroactenailida Sustancia de
Referencia (SR) se transfieren a matraz de 10 ml y se completa a volumen con
etanol al 96%, posteriormente se realiza una dilución 0.1:10 con el mismo
medio (Solución 3: 0.005% P/V) - se siembran 40 µl
Solución 4 (Sol.4): se pesan 0.25 g de 4´cloroacteanilida (SR) + 0.1 g
paracetamol y se disuelven en 100 ml de etanol 96%. Se siembra 40 µl
Sol. MI: 200 µg/µl x 200 µl= 40000 µg
Sol. M2: 20 µg/µl x 40 µl= 800 µg
Sol. 3: 0.05 µg/µl x 40 µl= 2 µg
Sol. 4: (2.5 µg/µl +1 µg/µl) x 40 µl =100 µg + 40 µg
En este ejemplo, si necesitamos contar con sustancia de referencia de
4´cloroacetanilida ya que debemos identificar y cuantificar la misma. Si
transformamos la especificación en unidades correspondientes al porcentaje
(%) máximo de sustancias relacionadas presentes en la muestra bajo estudio
resulta:
4´Cloroacetanilida:
40000 µg………….100 %
2 µg……………….0.005 %
Otras sustancias relacionadas, diferentes de 4´Cloroacetanilida:
800 µg………….100 %
2 µg…………….0.25 %
A continuación en una placa cromatográfica, se ejemplifica uno de los
resultados posibles:

65
Analizando la placa anterior, podemos concluir, que el ensayo es válido ya que
la 4´cloroacetanilida y el paracetamol se separan perfectamente entre sí, y el Rf
de la 4´cloroacetanilida es mayor que el Rf del paracetamol (validación in situ),
y que la muestra de comprimidos de paracetamol analizada cumple las
especificaciones.
Análisis cuantitativo. Cuando se aplica TLC al análisis cuantitativo, se deben
remover cuidadosamente las manchas desde la cromatoplaca, luego eluirlas
con un solvente adecuado y posteriormente aplicar un método cuantitativo que
permita detectar pequeñas cantidades (ej. Espectrofotometría UV), o bien
medir intensidades de manchas por densitometría sin necesidad de removerlas
de la cromatoplaca. Una estimación semicuantitativa puede realizarse por
comparación visual del tamaño e intensidad de las manchas.

Técnica general

La técnica de TLC comprende diferentes etapas:


 Preparación de la cámara de desarrollo
 Activación de la placa
 Siembra de las muestras
 Corrida de la placa
 Revelado o localización de las manchas
Ver descripción de las mismas en FA. Vll ed. (pág. 63); USP 23 (pág. 1770/71);
Farmacopea Británica 93 (pág. A92/A93).
Además de la forma de cromatografía convencional, descripta en la bibliografía
mencionada, donde se corre la fase móvil en dirección ascendente, hasta que
la misma haya recorrido las tres cuartas partes de la placa, existen otros tipos
de desarrollo:
Desarrollo Múltiple. Consiste en correr primero con una fase móvil, secar y
correr luego con la misma fase o con otra más polar o de diferente pH, en la
misma dirección. Este proceso puede repetirse cuantas veces sea necesario

66
para lograr la separación. Esta técnica es particularmente útil para separar
compuestos de polaridades diferentes.
Cromatografía bidimensional: consiste en correr la placa en una dirección con
la primera fase móvil, secar, girar la placa 90 y correr nuevamente usando una
fase móvil diferente.

Materiales

Fase Estacionaria: La fase estacionaria (FE) se adhiere convenientemente a


una placa de vidrio, lámina de aluminio, o plástico. La adherencia se logra con
el agregado de sulfato de calcio a la FE. Si bien el vidrio es el soporte más
conocido, los otros dos tienen la ventaja de poder cortarlos en placas menores
por su flexibilidad. Muchas de las FE son adsorbentes (ej. silicagel, alúmina) y
la separación ocurre por interacción de las sustancias con la FE. Otras (ej.
celulosa) operan primariamente por partición de la muestra entre FE y FM,
aunque generalmente es un proceso combinado. Cuando la FE es más polar
que la FM el sistema se denomina de fase normal (ej. silicagel con solventes
orgánicos no polares); cuando la FE es la menos polar de las dos fases, el
sistema se denomina de fase reversa (ej. placa impregnada de parafina usando
una FM acuosa). Las Fases Estacionarias pueden ser inorgánicas, orgánicas o
mixtas.
Inorgánicas: silicagel; alúmina; silicato de magnesio (Florisil); etc. La silica gel o
SiO2, es el más usado de los adsorbentes: contiene grupos silanoles
responsables de actividad adsorbente y es de naturaleza débilmente ácida. Las
placas tienen una distribución uniforme de tamaño de partícula normalmente
alrededor de 20 m de diámetro. Puede contener sulfato de calcio hidratado
(SO4Ca. 1/2H2O) como aglutinante (en proporción 5%-15%), en cuyo caso se
denomina silicagel G. La silicagel H no contiene SO4Ca. 1/2H2O, ni otro
aglutinante. También existe silicagel G o H con indicador de fluorescencia
(F254), la materia fluorescente es un silicato de Zn activado con Mn. La alúmina
o Al2O3 es otro adsorbente bastante empleado; puede ser neutro (pH 7.5),

67
alcalino (pH 9) o ácido (pH 4). Su actividad de adsorción es menor que la
silicagel y necesita ser activada para obtener mejores separaciones. Tiene el
inconveniente de producir reacciones colaterales, como por ej. hidrólisis,
apareciendo entonces dos manchas cuando en realidad la sustancia no estaba
impurificada.
Orgánicas: celulosa, urea, poliamida, carbón, sacarosa, etc. La celulosa imita
muy bien a la cromatografía en papel, el mecanismo de separación es
partición. La velocidad de corrida es mayor que con la silicagel a igual espesor.
Mixtas: Resultan de la combinación de las fases anteriores.
Otras fases estacionarias:
Fases Reversas
Los sistemas de fase reversa consisten en placas de silicagel impregnadas con
materiales tales como parafina, siliconas, grasas, con fases móviles acuosas.
Estos sistemas tienen una buena separación para un rango amplio de
sustancias, pero tiene la desventaja de su lenta velocidad de corrida, y pobre
reproducibilidad. Otros sistemas de fase reversa, consisten en placas de silica
modificada, por unión de cadenas hidrocarbonadas de distinta longitud, a los
grupos silanoles libres; estos sistemas tienen alta resolución. Las más
conocidas son las fases con cadenas de C18 (octadecyl). Pueden ser usadas
como fases móviles Metanol : Agua o Acetonitrilo : Agua.

Resinas de Intercambio Iónico


Estas placas de TLC poseen resinas de intercambio catiónico o aniónico unidas
a su superficie. Las resinas son de estireno-divinilbenceno con grupos amonio
cuaternario o ácido sulfónico para el intercambio iónico.
El contenido de agua juega un papel importante en la actividad del adsorbente
ya que por ej. en el caso de la sílicagel se solvatan los grupos silanoles que
son los sitios activos, impidiendo la unión a los mismos de las sustancias a
cromatografiar, afectando consecuentemente la reproducibilidad del sistema.
La Alúmina se presenta en cinco grados de activación, de I a V según su
contenido acuoso; la de grado I no contiene agua por lo tanto es la de mayor
actividad y el contenido acuoso aumenta hasta llegar a la de grado V.

68
Determinación de la actividad de los adsorbentes.

Existen métodos para medir la actividad del adsorbente por ej. el Método de
Brockman y Schodder que utiliza para determinar el grado de actividad de una
alumina, una serie de azo-colorantes que ordenados de acuerdo a su creciente
adsorbibilidad son:

1. Azobenceno
2. p- Metoxiazobenceno
3. Benceno-azo-2-naftol (Amarillo Sudan)
4. Rojo Sudan (Sudan III)
5. p-Aminoazobenceno
6. p-Hidroxiazobenceno

Para ello se siembra un volumen determinado de una mezcla de estos


colorantes en solución, en distintas columnas que contienen alúmina con
distinto grado de activación, dado por su % de agua y luego se hace pasar por
todas ellas un mismo volumen del mismo eluyente. La velocidad de corrida de
cada colorante dependerá de la actividad del adsorbente. Por ej. la alúmina de
mayor actividad , es decir la que no contiene agua adsorberá azobenceno, o
sea el colorante de menor adsorbibilidad, en la parte inferior de la columna, en
la parte superior de la misma se adsorberá p-metoxiazobenceno, es decir el
que le sigue en poder adsorbente y no eluye fuera de la columna ningún
colorante, todos los demás quedarán retenidos en el punto de siembra. En la
de grado II (3% de agua) el azobenceno se eluye fuera de la columna, el
metoxiazobenceno es retenido en la parte inferior, el amarillo sudan queda en
la parte superior de la columna y el resto en el punto de siembra y así
sucesivamente. La alúmina de grado III tiene un 6% de agua, la de grado IV un
10% y la de grado V 15% de agua. La actividad I se logra por calcinación,
mientras que las otras se consiguen por exposición prolongada al aire. Si
tenemos una alúmina de actividad desconocida, rellenamos con ella una

69
columna y sembramos la mezcla de colorantes, según el comportamiento de
los mismos podremos deducir su actividad.
En lugar de columnas pueden utilizarse placas de TLC determinando el Rf de
cada colorante.
Otro método es el Índice de Azobenceno: se mezclan 0.5 g de adsorbente con
3 ml de una solución 0.1 M de azobenceno puro en ciclohexano puro, en un
recipiente de tapa hermética y se agita repetidamente. Al cabo de una hora el
líquido sobrenadante se centrifuga y se lee su absorbancia determinándose la
perdida de azobenceno mediante el uso de curvas de calibración. Se calcula la
cantidad adsorbida en moles/ gramo de adsorbente por medio de la siguiente
ecuación:

Moles/gramo = a/m (C1 - C2)


a = volumen de la solución del colorante.
m = gramos de adsorbente
C1 y C2 = concentración inicial y final del colorante

Fase Móvil (Eluyente): La elección de la fase móvil (FM), dependerá de las


sustancias a cromatografiar. Puede estar constituida por un solvente orgánico o
mezcla de los mismos, pudiendo también agregarse ácidos o bases para
controlar la elución. Los solventes usados deben ser secados y redestilados,
estables al aire, no tóxicos y no reaccionar con la sustancia a separar.
Existen series que indican la diferencia de poder eluyente y se denominan
series eluotrópicas, las mismas se describen en la Tabla 2.

70
Según Wohlleben Según Strain
n-pentano Éter de petróleo (30-50 C)
Éter de petróleo Éter de petróleo (50-70 C)
n-hexano Éter de petróleo (70-100 C) A
n-heptano Tetracloruro de carbono U
M
Ciclohexano Ciclohexano E
Tetracloruro de carbono Sulfuro de carbono N
T
Tricloro etileno Éter dietílico O
Benceno Acetona D
Diclorometano Benceno E
Cloroformo Tolueno P
Dietiléter Ésteres de ácidos orgánicos O
L
Acetato de etilo 1,2 dicloro etano A
Piridina Cloroformo R
I
Acetona Alcoholes D
A
n-propanol Agua D
Etanol Piridina
Metanol Ácidos orgánicos
Agua Mezcla de ácidos con bases, agua, alcohol o piridina

Tabla 2. Series eluotrópicas

Muestra a cromatografiar: En términos generales si la sustancia a


cromatografiar es poco polar, se trabajará con adsorbentes fuertes y eluyentes
débiles. Para sustancias polares se trabajará con adsorbentes débiles y
eluyentes fuertes.
1. Los hidrocarburos saturados son poco adsorbidos. La introducción de dobles
enlaces en la molécula, aumenta la polaridad de las moléculas y con esto la
fuerza adsortiva sobre el adsorbente.
2. Si se introducen grupos funcionales en una cadena hidrocarbonada aumenta
la afinidad de adsorción. La serie de adsorción descendente es:
-COOH > CONH2 > NHCOCH3 >NH2 > OCOCH3 > N-(CH3)2 > NH2 > OCH3 > H
> Cl
3. En una molécula en la que se encuentran presentes varios grupos
funcionales, la afinidad por el adsorbente la da el grupo funcional más hidrófilo
no existiendo aditividad con respecto a su influencia sobre la afinidad de
adsorción.

71
Reveladores: Muchas sustancias pueden ser localizadas examinando la placa
conteniendo un indicador de fluorescencia, bajo luz UV a longitudes de onda
corta (254 nm); los compuestos que absorben en la región del UV pueden
verse entonces como manchas oscuras sobre un fondo verde fluorescente.
Puede también usarse para revelar luz UV de longitud de onda larga (360 nm),
las sustancias de naturaleza fluorescente podrán visualizarse. Algunas
sustancias no absorben luz UV, porque se encuentran en su forma iónica en la
placa debido al pH de la FE o de la FM. Por ej., los barbituratos no son visibles
si la placa es ácida, pero pueden rápidamente detectarse si se somete a la
placa a vapores de amoniaco. Similarmente muchas bases pueden ser
localizadas si se cambia el pH de la placa por exposición a vapores de ácido
clorhídrico. Muchas sustancias que no presentan color propio, absorción al UV,
ni fluorescencia se detectan con reactivos específicos que se pulverizan sobre
la placa. La aspersión no debe ser excesiva con objeto de que no difundan las
manchas. Se pueden usar reactivos agresivos como ácido sulfúrico
concentrado, ácido sulfocrómico, ácido sulfúrico- ácido nítrico, y carbonizar las
sustancias orgánicas por calentamiento a temperaturas elevadas.
Agregando 0.5% de aldehidos (p-dimetilaminobenzaldehído, vainillina, aldehído
anísico, aldehído salicílico o formaldehído) al ácido sulfúrico se obtiene en frío
colores intensos y calentando a temperaturas entre 100 o y 300o C son visibles
un amplio espectro de compuestos. Muchas sustancias son detectadas con I 2.
El I2 se une físicamente a los compuestos, por lo tanto puede luego eliminarse.
En la bibliografía de referencia se describen más métodos específicos para
determinados grupos funcionales (ej. ninhidrina para aminas primarias) o
grupos de compuestos (ej. Reactivo de Dragendorff para alcaloides).

Técnicas especiales

Cromatoplacas con zonas de concentración. Tienen dos zonas en la misma


placa, la primera contiene un adsorbente inerte o de poca capacidad
adsorbente, por ej. Kieselgur (tierra de diatomeas) y la segunda un adsorbente

72
activo ej. silicagel. Se utiliza cuando la muestra es compleja, por ej. formas
farmacéuticas con excipientes, cuando las sustancias se degradan al sembrar,
o cuando tienen muchas impurezas de tipo orgánicas, y de esta manera se
limpian (clean up), pues son retenidas en el Kieselgur. En estas placas no es
necesario sembrar en punto o banda, puede colocarse la placa directamente
en la solución de siembra porque todas corren en forma de bandas.
Cromatografía en Capa Fina de Alta Performance HPTLC. Esta técnica utiliza
placas de silicagel con tamaño de partícula de aproximadamente 5m, mientras
que las comunes el tamaño es de 20m. Para el desarrollo de estas placas se
usan cámaras de desarrollo horizontal, con las cuales se puede sembrar en
ambos extremos de la placa y el solvente corre desde ambos extremos hacia el
centro. La cámara posee dos pequeñas cubetas en los extremos para colocar
el solvente, y esto posibilita el uso de dos solventes distintos, las placas se
ponen con el adsorbente para abajo, en forma horizontal. Para la
cuantificación, este tipo de técnica permite el uso solamente de Densitometría.
Los densitómetros miden la intensidad de la mancha, pueden trabajar en modo
transmitancia, fluorescencia o reflexión, es decir se mide la cantidad UV o
Visible transmitida, fluorescente o reflejada, luego se transforman estos valores
en áreas que son proporcionales a la concentración. Un densitómetro consta
de una fuente luminosa, un filtro, un colimador, una fotocélula y un
galvanómetro. La cromatoplaca se coloca entre la fuente luminosa y la
fotocélula y la radiación se mide usando como referencia un lugar de la placa
sin muestra. Las señales se transmiten a un registrador donde las manchas
aparecen en forma de picos cuya área es proporcional a la concentración de la
sustancia.
Ventajas de la HPTLC: mayor resolución debido al menor tamaño de partícula
lo cual implica mayor superficie expuesta, mayor sensibilidad, tiempos más
breves, recorridos más cortos y mayor reproducibilidad. Las propiedades
cromatográficas de este tipo de TLC correlacionan muy bien con los sistemas
de HPLC que usan la misma fase estacionaria.
Es útil para trabajos preparativos y su uso se ha incrementado a partir de la
aplicación de muestras con sembradores automáticos y la cuantificación por

73
medio de densitómetros. En la Tabla 3 se resumen las diferencias entre TLC y
HPTLC.
Condiciones Típicas TLC HPTLC
Dimensiones de la placa (cm) 20 x 20 10x10
Tamaño de partícula (silicagel) (m) Alrededor de 20 Alrededor de 5
Espesor de la placa (m) 100 - 250 150 - 200
Volumen de muestra (l) 1 - 10 < 0.1
Diámetro de la mancha antes de corrida (mm) <4 < 1.5
Diámetro de la mancha después de corrida (mm) 5 - 10 2 -5
Distancia de corrida (cm) 10 - 15 3-6
Tiempo de corrida (min) 30 - 120 5 - 15
Número de muestras por placa 10 - 15 30 - 40
Límite de detección (Absorción) (ng) 10 - 100 30 - 40
Límite de detección (fluorescencia) (ng) 0.1 - 1 0.01 – 1.0
Reproducibilidad de Rf Alrededor 3% Alrededor 1%
Reproducibilidad de cuantificación Alrededor 5% 2 % - 3%

Tabla 3. Diferencias Principales entre TLC y HPTLC


En la figura 1 se describe de manera esquemática el procedimiento para el
desarrollo de HPTLC.
Preparación Muestra y Estándar Selección de la capa
cromatográfica

Lipomat 5 Siembra de Muestra y


Application Estándar Capa pre-lavado

Capa pre-
acondicionamiento
Desarrollo
Cromatográfico

Detección, exploración y documentación de manchas


Cámara de paso

Scanner

Foto-documentación con cámara


digital

Figura 1. Procedimiento para el desarrollo de HPTLC

74
TLC Preparativa. Como técnica preparativa TLC es usada por ej., para el
aislamiento de componentes de mezclas para su posterior estudio como para
la obtención de materiales puros para ser usados como sustancias de
referencia.
En TLC preparativa el espesor de la capa de adsorbente es mayor (0,5 a
2mm), lo cual permite sembrar mayor cantidad de muestra. Es mejor aplicar la
muestra en forma de banda que de punto, (se puede cromatografiar más
muestra al mismo tiempo) La visualización de las manchas debe hacerse por
métodos no destructivos, por ejemplo UV.

Agradecimiento: A la Lic. Analía Nolasco por el diseño de las figuras y


gráficos incluidos en el presente capítulo.

Preguntas Orientadoras

1. Describa los factores que influyen o afectan la reproducibilidad del Rf.


2. Describa las diferencias fundamentales entre TLC y HPTLC.
3. Que mecanismo/s se pone/n en juego en la separación por TLC.
4. Describa en que consisten los sistemas de fase reversa.
5. Detalle el procedimiento para el análisis cuantitativo por TLC.
Utilizaría un método Volumétrico para cuantificar las manchas?.
Justifique

Test de Autoevaluación

1. En este capítulo se define el Límite de Detección como:


(a) La menor concentración de principio activo y/o impurezas o
sustancias relacionadas en unidades de masa (µg) que es
detectable y cuantificable de manera reproducible en las
condiciones de trabajo.

75
(b) La menor cantidad y concentración de principio activo y/o
impurezas o sustancias relacionadas en unidades de masa
(µg) que es detectable y cuantificable de manera reproducible
en las condiciones de trabajo.
(c) La menor cantidad de principio activo y/o impurezas o
sustancias relacionadas en unidades de masa (µg) que es
detectable y cuantificable de manera reproducible en las
condiciones de trabajo.

2. Durante el ensayo de Pureza Cromatográfica o Sustancias


relacionadas siempre debo:
(a) Contar con sustancia de referencia del principio activo y de
todas las impurezas o sustancias relacionadas.
(b) Nunca debo contar con sustancia de referencia de las
impurezas o sustancias relacionadas.
(c) Siempre debo contar con sustancia de referencia del principio
activo.
(d) Ninguna es correcta

3. La cromatografía en Fase reversa está constituida por:


(a) Fase Estacionaria Polar y Fase Móvil Polar
(b) Fase Estacionaria Polar y Fase Móvil No Polar
(c) Fase Estacionaria No Polar y Fase Móvil Polar
(d) Ninguna es correcta.

4. Cual o cuales de las siguientes opciones son correctas:


(a) La HPTLC, posee menos resolución y utiliza menor tamaño de
partícula de la sílica menor que la TLC.
(b) La reproducibilidad para el Rf en TLC es menor que en
HPTLC.
(c) La reproducibilidad para la cuantificación y el tiempo de corrida
es menor en HPTLC que en TLC.

76
(d) El límite de detección (absorción) es mayor en TLC que en
HPTLC.
Bibliografía

1. Kurt Randerath (1969). Cromatografía de capa fina. Bilbao: Urmo.


2. K.A.Connors (1980). Curso de Análisis Farmacéutico. 2da. Ed. 1980.
3. Ministerio de Salud – ANMAT. Farmacopea Argentina. VII ed. (2003)
Buenos Aires.
4. Farmacopea de los Estados Unidos de América (USP 34) (2011)
Rockville.
5. Farmacopea Británica (2003)
6. ManMonham, Srrivastava (2011) High-Performance Thin Layer
Chromatography (HPTLC). Springer – Verlag Berlin Heidelberg.

77
CAPITULO 4
CROMATOGRAFÍA LÍQUIDA DE ALTA RESOLUCIÓN (HPLC)
María Guillermina Volonté

Su aplicación al Análisis Farmacéutico

Introducción

La Cromatografía Líquida de Alta Resolución (HPLC) es una técnica de


separación muy utilizada debido a su gran versatilidad, ya que cubre un amplio
espectro de aplicaciones, con rapidez y con excelentes resultados, siendo
además un muy buen método analítico cuantitativo. Se aplica en casi todos los
laboratorios donde se realizan análisis químicos, bioquímicos y farmacéuticos,
tanto de rutina como de investigación.
Mediante HPLC se separan los componentes de una mezcla, en base a la
migración diferencial de los mismos, en un sistema que consta de dos fases,
una móvil, que fluye continuamente en una determinada dirección, y otra
estacionaria, que permanece fija. Se realiza en columna y por sus
características particulares se ha convertido en una de las de mayor
rendimiento y eficacia
Durante muchos años se practicó la cromatografía líquida en una forma que
llamaremos “clásica” y que consistió básicamente en lo siguiente: una columna
de vidrio, cuyo diámetro variaba entre 2-10 cm, una longitud de 50-500 cm,
rellena de algún material, como silicagel, alúmina, etc., cuyas partículas
poseían un tamaño entre 150-200 μm, en la que la muestra se introducía
disuelta en la fase móvil u otro disolvente y luego se agregaba el mismo, con el
cual eluía a través de la columna. Los tamaños de la muestra variaban entre
0,1-1,0 g o más. El disolvente o fase móvil fluía a través de la columna por
efecto de la gravedad y se recolectaba en la base de la misma en fracciones de
determinado volumen. Uno de los inconvenientes de esta técnica era el largo
tiempo de análisis requerido, horas o días, otra desventaja era que el material

78
de relleno se utilizaba por lo general una sola vez debido a que parte de la
muestra se adsorbía en forma irreversible en él.
Otro problema consistía en la identificación y cuantificación de los
componentes separados, en general mediante técnicas auxiliares, como ser la
espectrofotometría, gravimetría, etc.
En HPLC en cambio, se usan columnas de acero inoxidable, de diámetro muy
reducido, por ejemplo 2 mm, rellenas de materiales cuyas partículas tienen un
tamaño no mayor de 30–40 μm, usualmente entre 3-10 μm. Este tipo de
columna ofrece una gran resistencia al flujo de la fase móvil, o sea una gran
caída de presión. Por esta razón es necesario emplear sistemas de bombeo de
alta presión (hasta 6000 psi) que hagan fluir la fase móvil a una velocidad
razonable a través de la columna. La cantidad de fase estacionaria dentro de la
columna es pequeña, por lo que se requiere que la muestra también sea
pequeña, en el rango de µg a pocos mg.
La muestra se introduce en el sistema mediante válvulas de inyección.
Un detector, colocado a la salida de la columna, proporciona un registro
continuo de la composición del líquido que sale, por lo que permite obtener un
cromatograma que se utiliza para identificar y cuantificar los componentes de la
muestra.

Interfase A/D
Computadora
Personal

Detector

Inyector Columna

Bomba
Fase Móvil

Figura 1. Esquema de un HPLC tipo

79
Ventajas y limitaciones de la HPLC

Ventajas:
 Con esta técnica es usual obtener separaciones en el término de
minutos y hasta segundos.
 Otra ventaja es la alta resolución que permite separar mezclas muy
complejas, por ejemplo muestras de fluidos biológicos, como la orina,
plasma, etc.
 También proporciona muy buena información de tipo cuantitativo.
 Presenta un escaso deterioro de la columna a pesar de su repetido
uso.
 Quizás la ventaja más importante sea la diversidad de sus aplicaciones,
tanto a compuestos orgánicos como inorgánicos, a muestras de alto y
bajo PM, a sustancias sólidas y líquidas, iónicas o covalentes. Desde el
punto de vista práctico las únicas muestras que no son susceptibles de
ser analizadas por HPLC son las gaseosas.
 Por último presenta la gran ventaja de automatizar los instrumentos de
forma tal que realicen el análisis completo de la muestra, desde su
introducción en el cromatógrafo hasta el cálculo e impresión de los
resultados, en forma automática.

Limitaciones:
 Instrumental costoso.
 El personal que utilice esta técnica tendrá que tener experiencia como
para poder obtener el mayor provecho de la técnica instrumental.
 La comparación de los tiempos de retención, como método de
identificación, no es confiable, por lo que será necesario emplear otras
técnicas, tales como Espectroscopia de Masa, IR, o Resonancia
Magnética Nuclear para obtener identificaciones más precisas.
 No existe aún un detector universal y sensible para HPLC, el detector de
índice de refracción es de respuesta universal pero de limitada

80
sensibilidad y el detector de luz UV es sensible, pero su respuesta es
selectiva y responde solo a compuestos que absorben radiación UV.
Tipos de mecanismos de separación
Hay cinco métodos de realizar la HPLC, cada uno basado en diferentes
mecanismos de separación de los componentes de la muestra:
1. Cromatografía líquido-líquido: El mecanismo de separación se basa en
la distinta solubilidad que presenta una molécula de la muestra en la fase móvil
y en la fase estacionaria, ambas líquidas. Se utiliza para compuestos
moderadamente polares, cuyo PM sea inferior a 1500. El mayor inconveniente
de esta técnica es la solubilidad de la fase estacionaria en la fase móvil y el
deterioro de la columna. Una forma de resolverlo es saturando la fase móvil
con la fase estacionaria por medio de una precolumna que contenga un alto
porcentaje de fase estacionaria.
2. Cromatografía de fase químicamente unida o fase ligada: Surgió como
otra forma de evitar la solubilización de la fase estacionaria en la fase móvil, ya
que utiliza materiales que contienen la fase estacionaria químicamente unida a
la superficie de un soporte (generalmente partículas de sílice), a través de sus
grupos funcionales. Estos pueden ser de naturaleza polar, como el grupo
amino (-NH2) y el nitrilo (-CN) en el caso de la cromatografía de fase normal, o
bien no polar como el grupo octilo (-C8H17), octadecilo (-C18H37), fenilo (-C6H5),
en el caso de la cromatografía de fase reversa.
El mecanismo de separación de esta técnica es complejo, con características
similares a las de la cromatografía líquido-sólido.
3. Cromatografía líquido-sólido: Llamada también de Adsorción, cuyo
mecanismo se basa en la competencia que existe entre las moléculas de la
muestra y las de la fase móvil o disolvente por ocupar los sitios activos en la
superficie de un sólido polar, como es la silicagel o la alúmina. Se aplica a
moléculas de baja o media polaridad, de PM no mayor a 1000.
4. Cromatografía de exclusión molecular: Este tipo de cromatografía
conocida también como cromatografía de Permeación o de Filtración, efectúa
la separación de acuerdo con el tamaño de las moléculas. Las columnas se
rellenan de un gel, cuyos poros son de tamaño similar al tamaño de las

81
moléculas de la muestra. Las moléculas pequeñas pueden penetrar dichos
poros y quedan retenidas, en tanto que las grandes no lo hacen. El intervalo de
PM de las muestras está entre 500 hasta varios millones.
Las dos variantes que existen en cromatografía de exclusión son: la
Cromatografía de Permeación en gel y la Cromatografía de Filtración en gel,
ésta última emplea materiales blandos (dextranos) incapaces de resistir
presiones mayores de 60 psi y es muy aplicada en el estudio de biopolímeros.
En cambio la cromatografía de Permeación emplea materiales de relleno
semirígidos (poliestirenos) o rígidos (silica porosa, vidrio poroso) que pueden
resistir presiones muy elevadas y es aplicada en estudios de polímeros
sintéticos (poliolefinas, poliamidas). Aunque existen excepciones, la eficiencia
de las columnas de cromatografía de exclusión es relativamente baja, por lo
cual no es corriente en esta técnica obtener la separación de compuestos
individuales, sino más bien fracciones de un cierto intervalo de PM.
5. Cromatografía de intercambio iónico: Se basa en la competencia
entre la fase móvil y la muestra iónica por los sitios ó grupos activos de una
resina intercambiadora. Se aplica a compuestos de un intervalo de PM muy
amplio, por ejemplo péptidos y aminoácidos.

Términos y símbolos característicos

 Cromatograma: Gráfico u otra representación de la respuesta del


detector, concentración del eluente u otra cantidad usada como una medida de
concentración del eluente, versus el volumen de eluente o tiempo (IUPAC).

Figura 2. Cromatograma tipo

82
El cromatograma se inicia en el momento en que la solución muestra es
inyectada. Las señales encontradas en el cromatograma pueden ser:
 Volumen de elución (Ve): es el volumen de fase móvil eluida entre la
inyección y la detección de la concentración máxima de cada componente de
la muestra.
 Volumen muerto (V0): es el volumen que la fase móvil puede ocupar
entre las partículas de la fase estacionaria y todos los espacios libres
existentes en la columna, en las tuberías, uniones, etc. La solución atraviesa
estos espacios, sin participar en ningún proceso separativo.
 Línea de Base: es la porción del cromatograma donde sólo se aprecia
la elución de la fase móvil, sin señal debida a los componentes de la muestra.
 Tiempo de Retención (tn): es el tiempo medido entre la inyección y la
elución de la concentración máxima de cada componente de la muestra
(máxima señal). La distancia entre este máximo de la señal y la línea de base
es la altura del pico (hn).
 Tiempo muerto (t0): es el tiempo del primer pico que aparece, no
perteneciente a ningún componente de la muestra. Como su valor se utiliza en
algunos cálculos cromatográficos hay que determinarlo con exactitud, no se
tiene la completa seguridad de que el primer pico, generalmente debido al
solvente de disolución de la muestra o a alguna impureza desconocida, sea el
correcto. Para su estimación pueden utilizarse, en Fase Reversa, soluciones
diluidas de nitrato de sodio o de dicromato de potasio.
 Tiempo de Retención neto o relativo (t’n): también llamado tiempo de
retención ajustado o corregido, es la diferencia entre el tiempo de retención de
un pico y el tiempo muerto.
 Anchura de la base de la señal o Ancho de Pico (w): es la porción de la
línea de base interceptada por tangentes trazadas a ambos lados de una señal
cromatográfica. Este valor de anchura se emplea en el cálculo de la resolución
(R) y eficiencia de los sistemas cromatográficos (N). Se puede calcular
tomando el ancho en distintas posiciones, por ejemplo al 50 % de la altura de
pico, al 60.7 %, etc.

83
 Número de platos teóricos (N): un plato teórico es el equilibrio de
distribución de la muestra entre la fase móvil y la fase estacionaria. El número
de platos teóricos se calcula como: N = a (tn/w)2
El valor de (a) puede variar de acuerdo a cómo se determine el ancho de pico
(w), ver la siguiente tabla:
w a Altura de pico (%)
wi 4 60,7% (inflexión)
wh 5,54 50% (media onda)
w3 9 32,4% (3σ)
w4 16 13,4% (4σ)
w5 25 4,4% (5σ)
wtan 16 tangente

El número de platos teóricos es una medida de la eficiencia de la columna y


sistemas asociados y por lo tanto de su poder separativo, es así que cuanto
mayor sea N, más eficiente será la columna, nos dará picos más estrechos y
mejor separados.
 Altura equivalente del plato teórico (H): se calcula como:

L
H
N

donde L es la longitud de la columna expresada en mm. Si el valor de H es


pequeño, esto se traduce en un mayor número de platos teóricos por unidad
de longitud y por lo tanto la columna será más eficiente. Sirve para comparar
columnas de distinta longitud.
 Velocidad lineal (μ): para la comparación de métodos que emplean
columnas de diferente diámetro interno es preferible la expresión de la
velocidad lineal en lugar del caudal. Se expresa en cm/seg y se calcula:

L

t0

 Factor de Capacidad (k’): Conceptualmente es la relación entre el


número de moles de cada componente de una muestra en la fase estacionaria

84
y el número de moles del mismo en la fase móvil. Como k’ es proporcional al
tiempo de retención del soluto se calcula para el pico enésimo como:
( t n  t 0 ) (Vn  V0 )
k  
t0 V0
k’ puede variar entre cero (si no es retenido en la fase estacionaria) e
infinito (si se retiene en forma irreversible). Se ajusta modificando la fuerza de
elución de la fase móvil, por ejemplo:
* En fase reversa k’ disminuye al aumentar la proporción del compuesto
orgánico (metanol, acetonitrilo, tetrahidrofurano) y aumenta al aumentar la
proporción de fase acuosa.
* En fase normal k’ disminuye al aumentar la proporción de solvente polar y
aumenta al aumentar la proporción del no polar.
* En cromatografía de intercambio iónico la variación del pH de la fase
móvil puede aumentar o disminuir k’ de acuerdo a las características ácido-
base del analito.
 Factor de Separación (α): es el cociente entre los factores de capacidad
de un par de picos. Si no existe separación entre dos picos, por ejemplo pico 1
y 2, α es igual a la unidad y su valor aumenta cuando aumenta la separación.
Se calcula como:

k 2

k1
No depende de la fuerza de elución, sino de la afinidad del soluto respecto
de la fase móvil y de la columna.
La variación de α puede lograrse:
* modificando el componente activo de la fase móvil (metanol,
acetonitrilo, tetrahidrofurano, en fase reversa o Cloroformo en fase
normal)
* modificando el pH de la fase móvil
* empleando aditivos (reactivos de apareamiento, complejantes, etc.)
* cambiando la fase estacionaria
 Resolución (R): es una medida cuantitativa del grado de separación
obtenido entre dos compuestos:

(t 2  t 1 )
R
1/ 2  ( w 2  w 1 )
85
Un valor de R≥ 1,5 significa separación completa.
 Asimetría (As): la asimetría (tailing) es una medida de la simetría del
pico, tiene el valor 1 para un pico perfectamente simétrico y su medición es
importante puesto que puede llevar a errores considerables de cuantificación,
e incluso a solapar picos adyacentes de tal manera que la integración y la
precisión se tornan menos confiables. Se calcula:

As = a+b/2a

Donde a y b son las medidas entre la línea que une el máximo del pico con la
línea base y los extremos anterior (simétrico) y posterior del pico (con tailing)
respectivamente, medidos al 5 o al 10 % de su altura.

Figura 3. Esquema de un pico asimétrico

Ensanchamiento de la Banda Cromatográfica

Al cromatografiar una mezcla de solutos en un volumen determinado de


solución, por ejemplo 20 μl, cuando la mezcla se separa y eluye de la columna,
cada componente estará disuelto, no en los 20 μl originales de solvente sino en
un volumen mayor, debido a que sufre diluciones a medida que avanza a
través del sistema. Este fenómeno puede verse en los cromatogramas, donde

86
se observa claramente que los picos o bandas menos retenidos tienen mayor
ancho que los más retenidos.
Este ensanchamiento de banda es normal y se conocen como ensanchamiento
de banda intracolumnar. Existen sin embargo otros procesos, extracolumnares,
que provocan el ensanchamiento de los picos y son producidos por factores
instrumentales y experimentales.

 Ensanchamiento de banda intracolumnar

Según Van Deemter, las contribuciones al ensanchamiento de banda dentro de


una columna cromatográfica son cuatro:
 Proceso multipaso
 Difusión longitudinal
 Resistencia a la transferencia de masa en la fase móvil
 Resistencia a la transferencia de masa en la fase estacionaria
 Proceso multipaso: Cuando el soluto atraviesa la fase estacionaria
encontrará diversos caminos por los cuales será impulsado por la fase móvil a
recorrerlos. Algunas moléculas seguirán caminos directos y otras, encontrando
partículas en su paso, caminos más complejos, retrasándose respecto de las
primeras. Este fenómeno se conoce también como Difusión de Eddy y su
contribución al ensanchamiento de banda está dado por el diámetro de la
partícula de la fase estacionaria y por una constante que depende del relleno y
de la calidad de su empaquetamiento en la columna. Una reducción del tamaño
de partícula de 45 a 6 µm origina una disminución de diez veces de la altura del
plato teórico (H).
 Difusión longitudinal: Las moléculas de un soluto en un líquido, en este
caso la fase móvil, no permanecerán inmóviles sino que difundirán en todas
direcciones hasta que su concentración sea uniforme en todo el seno de
líquido. Este efecto ocurre en forma evidente o imperceptible y será más
notorio cuanto menor sea el caudal empleado.
La contribución de este efecto al ensanchamiento está en función inversa con
la velocidad lineal de la fase móvil (μ) y en forma directa respecto del

87
coeficiente de difusión del soluto en el solvente y de una constante que evalúa
el espacio ocupado por la fase móvil y su geometría.
 Resistencia a la transferencia de masa en la fase móvil: El soluto se
desplaza a través de la columna y sus moléculas se transferirán, por un
proceso reversible, desde la fase móvil hacia la fase estacionaria y desde ésta
nuevamente hacia la fase móvil.
Las moléculas de soluto más cercanas a la fase estacionaria interaccionarán
mejor con ésta y las más alejadas a la inversa. Como la fase móvil está en
movimiento, las moléculas más alejadas de la partícula habrán recorrido un
determinado trayecto antes de que sean retenidas por la fase estacionaria, lo
que resultará en una dispersión de la banda inicial.
La contribución de este efecto al ensanchamiento de banda es directamente
proporcional a un factor dependiente de k’, a la velocidad lineal de la fase móvil
(μ) y al diámetro de la partícula, e inversamente proporcional al coeficiente de
difusión del soluto en la fase móvil.
 Resistencia a la transferencia de masa en la fase estacionaria: Este
efecto es semejante al anterior. Las moléculas de soluto se retienen en la fase
estacionaria y son luego devueltas a la fase móvil en un tiempo finito. Las
moléculas de soluto próximas a la superficie serán devueltas a la fase móvil
más rápidamente que las moléculas que difundieron profundamente, lo que
dará lugar a un ensanchamiento de la banda original. El ensanchamiento será
proporcional al espesor de la fase estacionaria, a la profundidad del poro e
inversamente proporcional al coeficiente de difusión del soluto en la fase
estacionaria.
La combinación de los cuatro efectos descritos da lugar a la expresión final de
la ecuación de Van Deemter:
H = A + B/µ + Cµ
Donde A, B y C son los coeficientes de difusión aparente, provocada por el
proceso multipaso, difusión longitudinal y de transferencia de masa,
respectivamente, y µ es la velocidad lineal de la fase móvil.
De la ecuación de Van Deemter pueden extraerse valiosas conclusiones. Se
deduce una mayor eficiencia de la columna en las siguientes condiciones:

88
 Cuanto menor sea el diámetro de la partícula.
 Cuanto menor sea la viscosidad de la fase móvil (menor coeficiente de
difusión)
 A mayor temperatura, (disminución de la viscosidad de la fase móvil)
 Cuanto mejor sea el empaquetamiento del relleno.
 Cuanto menor sea el espesor de la capa de fase estacionaria fijada al
soporte de relleno.

 Ensanchamiento de banda extracolumnar

Hay componentes del equipo cromatográfico que pueden ser responsables de


un ensanchamiento de los picos, lo que lleva a la pérdida de eficiencia. Por
esta razón es importante verificar el diseño instrumental, por ejemplo controlar
el armado de longitud y tipo de tuberías, uniones, etc. Este ensanchamiento
dependerá de:
• Volumen de tuberías inyector-columna y columna-celda del detector
• Volumen de inyección
• Detector: volumen y velocidad de respuesta
Ensanchamiento de banda producido por tuberías: el ensanchamiento es
mayor a mayor longitud y diámetro interno de las tuberías.
Ensanchamiento de banda producido por el volumen de inyección: Se
recomienda que el volumen de inyección sea pequeño, que no supere 1/6 del
volumen del primer pico de interés, otros criterios son más estrictos y
recomiendan un volumen no mayor de 17 μl para columnas convencionales.
De todos modos, es interesante destacar que es posible inyectar volúmenes
mayores si la muestra se disuelve en un solvente más débil que la fase móvil.
Ensanchamiento de banda producido por el detector: El detector puede
contribuir de dos formas al ensanchamiento de banda, en función del tubo de
ingreso a la celda, volumen y geometría de la misma y en función de su
componente electrónico (velocidad de respuesta).
Evidentemente el volumen de esta celda debe ser pequeño, para que no vuelva
a mezclar los componentes que fueron separados en la columna.

89
Además del volumen de la celda debe considerarse su diseño, ya que las
celdas que induzcan flujos turbulentos son capaces de producir dispersión.
La constante de tiempo (Ƭ) de un detector indica, por su parte, la velocidad a la
cual éste responde a un cambio instantáneo de la concentración de analito. Si
la constante de tiempo es muy alta (respuesta lenta), un pico angosto podría
achatarse tanto que no se detecte ó mezclarse con otro pico adyacente. Este
problema no ocurre si la constante de tiempo es muy baja (respuesta rápida).

Descripción y tipo de instrumental

Existen dos tipos de equipos de HPLC, los integrados y los modulares. En los
primeros cada una de sus partes está reunida en un gabinete, lo cual
proporciona un mejor aprovechamiento del espacio, menos cables, tuberías y
conexiones expuestas. En los segundos, cada parte es un módulo distinto,
como si fueran instrumentos individuales.
En cualquier tipo de instrumental, ya sea integrado o modular, hay ciertas
características de orden general que deben ser reunidas, como ser:
 Versatilidad: el instrumental debe ser apto para resolver y trabajar con
muestras de diferente tipo, debe prestarse a las distintas técnicas
cromatográficas y realizar el máximo de operaciones, tales como,
programación de la fase móvil, recolección de fracciones a la salida de la
columna, etc.
 Rapidez: para obtener rapidez en el análisis es necesario contar con
materiales de relleno de columna de alta eficiencia y que el instrumento
posea adecuados sistemas de bombeo de alta presión para la fase móvil.
 Reproducibilidad y estabilidad: el instrumento debe poseer un control
adecuado sobre los parámetros de operación, tales como el flujo de la
fase móvil, la temperatura, presión, composición de la fase móvil, etc. y
para ello debe estar provisto de controles de temperatura y flujo, sistema
de bombeo de alta presión, programadores de fase móvil, detectores, etc.

90
 Sensibilidad: un buen instrumental además de trabajar con pequeñas
cantidades de muestra, debe generar señales de intensidad apreciable.
La sensibilidad de todo cromatógrafo de líquidos depende sobre todo del
sistema de detección que utiliza.

Componentes básicos de un equipo de HPLC

 Recipiente para la Fase Móvil:


Es conveniente ubicarlo algunos centímetros sobre el nivel de la bomba para
que la fuerza de gravedad dirija el solvente hacia ésta, manteniendo llenas las
conexiones. Puede utilizarse un frasco de laboratorio de buena calidad, con
una tapa adecuada. En el extremo del tubo de salida de solvente se conecta un
filtro de acero (buzo) con 2 o 10 μm de porosidad que impide el ingreso de
partículas a la bomba.

 Tuberías:
Las tuberías que se utilizan para conectar los componentes sometidos a alta
presión son de acero inoxidable (entre bomba e inyector, inyector y columna,
columna y detector y entre detectores conectados en serie) y son de materiales
poliméricos las que conectan componentes donde la presión es atmosférica o
ligeramente superior (entre el reservorio de solvente-bomba, último detector-
frasco de desperdicios).
Las tuberías de acero tienen un diámetro externo estandarizado: 1/16
pulgadas. Sin embargo su diámetro interno es variable, por lo cual se
selecciona la de sección más fina para conectar los instrumentos por donde
circula la muestra (entre el inyector y detector, de modo de no provocar
dilución de la muestra) y la de sección más gruesa para conectar aquellos
componentes del sistema por los que no circula la muestra, y en los cuales un
diámetro interno delgado sólo aumentaría la presión del sistema.
Se debe considerar la longitud de las tuberías ya que tuberías demasiado
largas conducen a ensanchamientos extracolumnares importantes, como ya

91
hemos visto. Las conexiones entre bomba e inyector y posteriores al detector
no contribuyen al ensanchamiento de banda extracolumnar y su efecto es
menos importante.

 Uniones:
Las uniones permiten conectar las tuberías con los distintos componentes del
sistema cromatográfico. Las uniones deben reunir determinadas
características, entre ellas:
 Deben ser inertes a fases móviles y muestras.
 Deben cerrar herméticamente.
 No deben contribuir en forma notable al ensanchamiento de banda
extracolumnar por la presencia de volúmenes muertos.

 Sistemas de Bombeo:
La bomba de un HPLC impulsa la fase móvil desde el recipiente que la
contiene hacia el inyector y desde allí hacia la columna. El flujo de dicha fase
móvil puede ser muy variable, desde μl/min hasta ml/min.
Las bombas están construidas de materiales muy resistentes tanto al ataque
químico como al desgaste mecánico.
Los aspectos más importantes de todo sistema de bombeo son:
 Presión máxima de operación, usualmente hasta 6000 psi con un
sistema de corte al excederlo.
 Intervalo de volúmenes obtenibles, entre 0.1-10 ml/min (flujo).
 Características del flujo, que debe ser libre de pulsaciones, ya que
generarían “ruido” y provocarían variaciones en el flujo del solvente,
lo que es muy importante en el análisis cuantitativo ya que las áreas
de los picos de HPLC cambian cuando varía el flujo.
 Control y reproducibilidad del caudal mejor del 0,5% relativo.
 Componentes resistentes a la corrosión.
 Facilidad para efectuar el cambio de fases móviles.
 Limpieza del sistema.

92
Según las características de funcionamiento y de diseño hay tres tipos de
bombas mecánicas:
A) Bombas recíprocas o reciprocantes, con pistón o diafragma.
B) Bombas de desplazamiento continuo o bombas jeringas.
C) Bombas neumáticas o de presión constante

A) Bombas Reciprocas: En la actualidad aproximadamente el 90% de los


equipos cromatográficos utilizan bombas con pistones de tipo reciprocante.
Pueden ser de un solo pistón, de dos pistones, de tres pistones, bomba
tándem, y bomba a pistón y diafragma flexible, de bombeo hidráulico.
Estas bombas permiten modificar el caudal entregado variando el recorrido del
pistón o variando la velocidad de movimiento del pistón.
El volumen de la cámara del pistón es pequeño, normalmente entre 35-400 μl.
Las fases móviles constituidas por solventes puros no causan problemas, pero
las soluciones salinas (buffer fosfatos, por ejemplo) pueden producir depósitos
por evaporación. Estos depósitos pueden rayar los sellos o los mismos
pistones, por lo cual es recomendable lavar el sistema con un solvente
apropiado luego de usarlas.

La bomba de un solo pistón es el modelo más sencillo de las bombas


reciprocantes. Esta bomba impulsa a la fase móvil, por el movimiento de vaivén
de un pistón accionado por un motor, en ciclos alternados de llenado y vaciado
de la cámara de bombeo. En uno de los ciclos el pistón entrega el solvente
contenido en la cámara y en el ciclo complementario cierra su comunicación
con la columna y toma solvente del reservorio. Es evidente que cuando la
bomba llena la cámara del pistón, el caudal se discontinúa. Este proceso se
visualiza como un pulso originando ruido en la línea de base del cromatograma,
este inconveniente puede reducirse empleando amortiguadores de pulso,
engranajes excéntricos o utilizando dos o más pistones de funcionamiento
sincrónico.

93
Figura 4. Esquema de una bomba reciprocante

B) Bombas de Desplazamiento Continuo: Llamadas también bombas de


émbolo o de tipo jeringa porque un émbolo desplazado en forma continua, por
un mecanismo de tornillo accionado mediante un motor de pasos, comprime un
líquido en una cámara obteniéndose un flujo de volumen constante, uniforme y
continuo, es decir, libre de pulsaciones, pero la capacidad de la bomba es
limitada, aproximadamente 250 ml, y para rellenar la cámara es necesario
suspender momentáneamente la operación.

Reposición de
Fase Móvil

Motor a la Columna

Figura 5. Bomba Jeringa

C) Bombas Neumáticas: En estas bombas la fase móvil se encuentra en un


contenedor plegable colocado en un recipiente que puede presurizarse

94
mediante gas comprimido. No provocan pulsaciones aunque tienen una
limitada capacidad y presión de salida, menores a 2000 psi, además el caudal
depende de la viscosidad del solvente y no pueden utilizarse en la elución con
gradiente.

 Sistemas de Inyección:
Son válvulas que orientan el caudal hacia la columna, pasando o no, según su
posición, a través de un loop en el cual se introduce la solución a inyectar
(figura 6). Las válvulas pueden accionarse manual o automáticamente.
Poseen un cuerpo fijo, un rotor con un sello que gira y un loop externo,
intercambiable, con volúmenes entre 5-500 µl, que contiene la muestra.
También existen válvulas de inyección de micromuestras, con loops de
volúmenes entre 0,5-5µl. Los inyectores automáticos deben poseer además un
carrusel que aloja viales donde se coloca las muestras a inyectar.

Figura 6. Válvula de inyección

 Programadores de Fase Móvil:


Se utilizan para cambiar la composición de la fase móvil conforme transcurre el
análisis. Por lo general se utilizan dos disolventes de diferente polaridad y se
varía el porcentaje del disolvente más polar en la mezcla binaria. Las ventajas
que ofrece esta técnica son: análisis más rápidos, mejores separaciones,
mayor simetría en los picos y mejor detectabilidad.

95
La elución isocrática (composición constante de la fase móvil) en algunos
casos insume mucho tiempo y la forma de las señales no es muy buena, en
cambio la separación por gradiente es rápida y las señales son simétricas.
Hay programadores de dos clases:
1. Gradientes de baja presión o programadores que efectúan el
mezclado en una cámara, después de lo cual el líquido pasa a la
bomba, la que envía la mezcla a la columna.

Figura 7. Sistema de formación de gradiente de baja presión

2. Gradientes de alta presión ó programadores de mezclado en


corriente. Requieren dos bombas, que por lo común son del tipo de
desplazamiento continuo y desplazan cantidades determinadas de cada
líquido, lo que permite generar cualquier forma de gradiente. El uso de
microprocesadores permite hoy día emplear los generadores de
gradientes en forma automática.

Figura 8. Sistema de formación de gradiente de alta presión

96
 Detectores:
El detector es la parte del equipo cromatográfico que permite ubicar en tiempo
y espacio la posición de cada componente de una muestra a la salida de la
columna cromatográfica.
El detector ideal será aquel que satisfaga los siguientes requisitos: alta
sensibilidad, estabilidad, lectura continua y respuesta universal. El detector
debe poseer un dispositivo que mida en forma continua alguna propiedad
fisicoquímica de los componentes de la muestra o de la solución que los
contiene y que genere una señal proporcional a la concentración de la muestra,
a medida que esta sale de la columna.
Al considerar un detector en términos de su aplicación a un cierto problema,
deben tenerse en cuenta algunas propiedades generales tales como:
 Respuesta: Puede ser universal o selectiva, según la capacidad que
tenga el detector de trabajar con todo tipo de muestras o solo con una
específica. En general, los detectores universales son más deseables, si
bien los selectivos, que suelen ser más sensibles, efectúan mejor el
análisis de muestras complejas porque detectan ciertos componentes a
muy bajas concentraciones.
 Sensibilidad: Se define la sensibilidad de un detector como la razón entre
la señal generada y la cantidad de muestra que produce dicha señal.
Este es un término relativo puesto que a partir de un mismo detector, la
señal obtenida puede ser muy diferente para diversas muestras.
 Ruido: Es la variación en la señal del instrumento que no es atribuida a la
muestra y que puede ser producida por fallas electrónicas, variaciones de
flujo ó temperatura, fluctuaciones en el voltaje, burbujas de aire atrapadas
en el detector, etc.
 Linealidad: Para utilizar la señal generada por el detector como una
medida cuantitativa, dicha señal debe guardar una relación lineal con la
concentración de la muestra, esta propiedad se conoce como linealidad.
El intervalo lineal de un detector se puede definir como la diferencia entre
las concentraciones máximas y mínimas respecto a las cuales la
respuesta del detector es lineal.

97
 Estabilidad: Un buen detector debe ser insensible a los cambios de
temperatura y a la variación de flujo y ser compatible con programaciones
de fase móvil.

Tipos de detectores

 Detector de Índice de Refracción:


Mide la diferencia de índice de refracción entre el solvente puro y el solvente
que contiene la muestra. Es decir, es un detector basado en una propiedad de
la disolución, pues responde a una propiedad de la fase móvil que se modifica
por la presencia de un analito. Es un detector universal, ya que es imposible
que el índice de refracción del soluto sea similar al del solvente y además no es
destructivo. Sin embargo es muy poco sensible, lo cual limita su campo de
aplicación y es muy afectado por los cambios de temperatura. No puede
utilizarse con gradiente de fase móvil porque el cambio de composición de la
misma se acompaña con un cambio de su índice de refracción y entonces no
puede estabilizarse la línea base.
 Detector UV:
Es el detector más utilizado en HPLC. En este caso, es un detector basado en
una propiedad del soluto, como es la de absorber al UV, que no es propia de la
fase móvil. Es muy sensible y posee un rango lineal, permite detectar analitos
en el orden de los nanogramos. No es destructivo y puede emplearse con
gradientes de fase móvil. Es un detector muy poco sensible a los cambios de
flujo y de temperatura.
Existen tres tipos de detectores UV: de longitud de onda fija y de longitud de
onda variable y de ordenamiento de fotodiodos.
El primero de ellos es el más simple, trabaja a longitudes de onda fijas,
especialmente a 254 nm, aunque pueden encontrarse detectores que lo hagan
a otras longitudes de onda. El detector de onda variable o espectrofotométrico,
es simplemente un espectrofotómetro en el cual se reemplaza al
compartimiento de cubetas por una celda de flujo. Permite seleccionar

98
libremente la longitud de onda de trabajo y en los equipos más modernos
pueden elegirse 1,2 ó más longitudes de onda, obteniéndose cromatogramas
superpuestos a cada una de ellas.
El detector de ordenamiento de fotodiodos, posee una distribución distinta de la
red de difracción, se emplea un sistema óptico invertido: la celda se ilumina con
luz “blanca”, es decir, no monocromatica y la luz emergente de la celda llega a
la red de difracción y allí es dispersada hacia el elemento fotosensible. En lugar
de una fotocélula se emplea un conjunto de fotocélulas o fotodiodos montados
en un chip de silicio. De esta forma, se consigue medir no solo la luz
transmitida a una longitud de onda, sino todo el espectro de absorción del
eluido en tiempo real. Una de las formas de presentación de los datos
espectrales que resulta útil para la identificación de las especies y para elegir
las condiciones de la determinación cuantitativa, consiste en un gráfico
tridimensional. Para poder controlar y procesar toda la información es
necesario la presencia de una computadora con el software adecuado.
Es el detector ideal para realizar el desarrollo de métodos analíticos por HPLC,
ya que permite asegurar, dentro de ciertos límites, la integridad y pureza de un
pico cromatográfico.
 Detector de Fluorescencia:
Utilizado en el análisis de sustancias que presentan fluorescencia natural u
obtenida por derivatización con un reactivo fluorogénico. Es de muy alta
sensibilidad y selectividad por lo cual es muy adecuado para el análisis de
trazas. La selectividad se debe a que existen pocas sustancias fluorescentes y
además las reacciones de derivatización implican la presencia de un grupo
funcional derivatizable en la molécula del analito, lo cual no es siempre posible.
La fluorescencia se detecta por medio de un detector fotoeléctrico colocado
perpendicularmente respecto al haz de excitación.
 Detector Electroquímico:
Es mucho más sensible que el detector UV además de ser altamente selectivo,
ya que no sólo detecta compuestos capaces de ser oxidados y reducidos, sino
que puede seleccionarse el potencial aplicado, con lo cual se reducen los
compuestos detectables. Se basan en cuatro métodos electroanalíticos que

99
incluyen la amperometría, la voltamperometría, la coulombimetría y la
conductimetría.
Otros detectores:
 De absorbancia en el Infrarrojo
 De Dispersión de luz
 Detectores de espectrometría de masas

Fase Móvil

No todos los solventes son adecuados para trabajar en HPLC. Un solvente


apropiado para HPLC debe cumplir con algunos requisitos, por ejemplo:
 Solubilizar bien las muestras
 No degradar o disolver la Fase Estacionaria
 Poseer baja reactividad
 Ser compatible con el detector utilizado
 Poseer baja viscosidad
 Ser seguro
 Tener alto grado de pureza

La muestra a inyectar debe estar completamente disuelta. Es conveniente que


el solvente de disolución de la muestra sea la misma fase móvil. Si esto no es
posible, debe tenerse en cuenta tanto la miscibilidad entre el solvente de
disolución y la fase móvil, como la precipitación de componentes de la muestra
al estar en contacto con la fase móvil.
Los solventes muy reactivos no se utilizan en HPLC, ya que pueden reaccionar
con la muestra, la fase estacionaria, o los componentes del equipo
cromatográfico.
Si se tiene en cuenta que el detector más usado es el espectrofotométrico,
debe usarse un solvente transparente a la longitud de onda de trabajo. Para
ello es muy útil conocer la longitud de onda de corte (λc) o sea la longitud de
onda a la cual la absorbancia del solvente, en una cubeta de 10 mm de paso

100
óptico, es igual a 1 unidad de absorbancia usando aire como referencia. Es
decir, si un solvente tiene una longitud de corte de 254 nm no se puede usar a
λ menores, pero sí a mayores λ. Solventes como el tolueno (λc: 285 nm) y
acetona (λc:330 nm) prácticamente no se emplean, ya que la señal de fondo
que producen en un detector convencional es muy alta y por lo tanto impide la
medición de los compuestos eluidos. En cambio el metanol (λc: 205 nm) y el
acetonitrilo (λc: 190 nm) son los solventes más empleados en HPLC.
La viscosidad de los solventes está estrechamente relacionada con la presión
del sistema. Con los solventes viscosos, la eficiencia de la separación es
menor debido a que el coeficiente de difusión de la muestra se reduce, y se
dificulta la transferencia de masa del soluto entre la fase móvil y la fase
estacionaria. A mayor viscosidad mayor presión en el sistema, por eso se
prefiere evitar el uso de solventes de alta viscosidad como dimetilsulfóxido o
isopropanol.
Como en cualquier método analítico, en HPLC debe evitarse el empleo de
solventes que por sus características (en particular inflamabilidad y toxicidad),
representan un serio riesgo para el operador.
La presencia de impurezas puede producir una señal de base importante en el
detector. A veces no es posible obtener comercialmente un solvente de buena
pureza. En estos casos pueden emplearse solventes de menor calidad, pero se
recomienda una purificación previa.

Preparación de la fase móvil:


Hay que tener en cuenta la posible contracción de volumen, que se produce al
mezclar solventes muy polares. Esta alteración en la composición de la fase
móvil puede modificar los tiempos de retención de los analitos provocando la
superposición de picos que en condiciones apropiadas serían separados.
La fase móvil luego de preparada, debe ser filtrada y desgasificada. La filtración
se efectúa por medio de membranas de 0.45 μm de porosidad, en equipos de
filtración adecuados. Las soluciones a inyectar también deben filtrarse a través
de membranas semejantes a las empleadas para la fase móvil. Si la cantidad

101
de muestra es muy pequeña, se puede reemplazar la filtración por la
centrifugación.
Los gases disueltos en la fase móvil pueden producir varios inconvenientes,
entre ellos: liberación de burbujas en el cabezal de la bomba, liberación o
formación de burbujas en la celda del detector, que se verán como señales en
el cromatograma y afectarán la estabilidad de la línea de base. Los métodos
que habitualmente se emplean para la desgasificación de la fase móvil son:
calentamiento, ebullición a reflujo, burbujeo de un gas inerte, vacío y
ultrasonido.
El valor del pH de la fase móvil puede ser un parámetro crítico en la retención
de solutos ionizables y en algunos casos, debe controlarse rigurosamente. A
valores de pH mayores a 7,5 se disuelve la sílice de base de las columnas, y a
pH menores a 2 se hidroliza la unión entre la sílice y la fase enlazada.

Columnas

En todo sistema cromatográfico, ya sea en fase líquida ó gaseosa, la columna


es el corazón del sistema puesto que en ella se lleva a cabo la separación de
los componentes de la mezcla en estudio.
Básicamente la columna consiste en un segmento de tubo de algún material
inerte, de diámetro uniforme y capaz de resistir altas presiones. De entre todos
los materiales, el acero inoxidable es el más usado. Las paredes internas
deben tener una superficie finamente pulida pues se ha observado que posee
una cierta influencia sobre la eficacia de la columna.
La longitud de la columna se encuentra entre 10 y 50 cm, aunque puede ser
bastante más larga, en especial en cromatografía de permeación donde se
suele usar varias columnas conectadas una detrás de otra. El diámetro en la
mayoría de los casos es de alrededor de 3-4 mm.
Tal vez la columna más frecuentemente utilizada con fines analíticos sea la de
25 cm de longitud y 4,6 mm de diámetro interno, empaquetada con partículas
de 5 µm, que pueden tener de 40000 a 60000 platos/metro. Recientemente han

102
aparecido columnas con 1-4,6 mm de diámetro interno, rellenas con partículas
de 3-5 µm y longitud entre 3-7,5 cm, con 100000 platos/metro, presentando la
ventaja de la rapidez y el mínimo consumo de solventes.
Si se desea realizar trabajos de tipo preparativos, o sea separar y recuperar los
componentes de una muestra en cantidad suficiente para poder utilizarlos
posteriormente, se debe recurrir a columnas con dimensiones mayores. Dichas
columnas efectuarán la separación en forma más lenta y con una eficiencia
menor que una columna de diámetro pequeño.
Respecto a la forma o geometría de la columna, por regla general, se prefieren
las rectas a las de cualquier otra forma, sobre todo porque hay cierta pérdida
de eficiencia cuando se doblan las columnas.
Las conexiones entre columnas, así como entre la columna y el detector o el
inyector deben ser herméticas. En los extremos de la columna se coloca un
disco de teflón o metal poroso para evitar que el relleno de la columna se afloje
o pierda, es necesario que este disco o tapón retenga las partículas del relleno
sin producir una caída de presión muy grande.
En muchas ocasiones, para aumentar la vida de la columna, se coloca delante
una pre-columna que elimina la materia en suspensión y los contaminantes de
los solventes. Su relleno debe ser semejante al de la columna analítica con
tamaños de partículas mayores para minimizar la caída de presión.
La mayoría de los equipos llevan hornos para las columnas que controlan la
temperatura de las mismas, cuando es necesario trabajar a una temperatura
estricta.
El material de relleno de las columnas se denomina Fase Estacionaria y se
detalla a continuación.

 Fase Estacionaria:
El material ideal será aquel que en el menor tiempo posible dé la mejor
resolución para la separación de la mezcla, tenga la máxima capacidad de
muestra, produzca caídas de presión pequeñas y que además sea de costo
reducido, por supuesto que no existe un material con todas estas propiedades
y a veces se justifica sacrificar algunas ventajas para obtener otras.

103
Los materiales que se utilizan son:
Materiales porosos, cuyas partículas sean de tamaño menor a 40 μm
(silicagel y alúmina)
Adsorbentes peliculares, también conocidos con el nombre de adsorbentes
de capa porosa, de porosidad superficial o de centro sólido. Consisten en
partículas esféricas, generalmente vítreas, no porosas, recubiertas de una capa
muy fina de un adsorbente, como silicagel o alúmina. El espesor de esta capa
es de alrededor de 1 μm.
Estos dos tipos de materiales tienen cosas en común pues ambos pueden
utilizarse en cromatografía líquido-sólido, o bien pueden recubrirse de alguna
fase líquida y utilizarse en cromatografía líquido-líquido. Asimismo se pueden
unir químicamente en su superficie a compuestos polares o no y transformarse
en una fase químicamente unida o ligada. De los materiales de fase
químicamente unida los de más uso son los que contienen el grupo octadecilo,
no polar, RP-18 o C18, lo cual equivale a decir que la cromatografía de fase
inversa ó reversa es quizás la más popular.
Materiales para cromatografía de intercambio iónico, son resinas porosas
que consisten en partículas rígidas del copolímero estireno-divilbenceno en
cuya superficie y poros se encuentran los grupos intercambiadores de iones.
Intercambiador de iones peliculares o resina pelicular, consisten en
partículas vítreas de forma esférica recubiertas de una capa muy fina del
copolímero estireno-divinilbenceno, las cual contiene los grupos activos.
Materiales porosos de silicagel con grupos intercambiadores
químicamente unidos, tienen la ventaja de resistir presiones elevadas y
poseer una capacidad de intercambio superior a la de los materiales
peliculares.
Los grupos presentes en todo tipo de resinas de intercambio iónico suelen ser
–NR4+ y –NH2, en el caso de resinas de intercambio aniónico, que se obtienen
comercialmente en forma de cloruros y –HSO3 en el caso de resinas de
intercambio catiónico, que se adquieren en forma de sales de sodio.
Materiales para cromatografía de exclusión molecular, varían de acuerdo
con su rigidez y con el intervalo de pesos moleculares dentro del cual son

104
útiles, es decir, el material a utilizar en la columna dependerá del tamaño de las
moléculas que se deban analizar. El intervalo de pesos moleculares dentro del
cual es útil un material está determinado por dos límites, uno inferior, llamado
límite de permeación, por debajo del cual todas las moléculas de menor
tamaño son igualmente difundidas dentro de los poros del material y otro límite
superior, límite de exclusión, por encima del cual todas las moléculas de mayor
tamaño son demasiado grandes para penetrar los poros. Moléculas de tamaño
intermedio entre ambos límites serán total o parcialmente separadas de
acuerdo con la selectividad característica de cada material. Es obvio que
moléculas más pequeñas que el límite de permeación ó más grandes que el
límite de exclusión serán eluidas de la columna sin resolución.
Entre este tipo de materiales encontramos a los materiales blandos, que son
geles de polidextranos y poliacrilamidas, utilizados casi siempre con
disolventes acuosos, su capacidad es elevada y no resisten presiones
superiores a 60 psi. Los límites de pesos moleculares en los cuales se pueden
utilizar varían desde 100 hasta 200.000. Como ya se ha mencionado la técnica
que utiliza este tipo de materiales se denomina Cromatografía de filtración y se
aplica a biopolímeros.
Los materiales semirígidos ó geles macroporosos, usados en análisis de
olefinas, resisten presiones del orden de 900 psi, son por lo general
microesferas de algún copolímero, como el poliestireno-divinilbenceno. Se
emplean sólo con disolventes acuosos. Los límites de pesos moleculares en los
cuales se pueden utilizar varían desde 100 hasta 1.000.000.
Los materiales rígidos, se utilizan a cualquier presión y son generalmente
partículas de sílice porosa o vidrio poroso. A causa de su rigidez se pueden
obtener separaciones muy rápidas a flujos de fase móvil acuosa, o no acuosa,
sumamente altos, lo cual requiere presiones elevadas. Los límites de pesos
moleculares en los cuales se pueden utilizar varían desde 100 hasta 1.000.000;
se aplica a muestras de proteínas y polisacáridos.

105
Preparación de la muestra

Esta etapa es sumamente importante sobre todo cuando la matriz que rodea al
analito es muy compleja. La selección del método más apropiado depende de
muchos factores, como ser:
- Propiedades físicoquímicas del analito. Es conveniente conocer su
estructura química, peso molecular, solubilidad, propiedades ácido-base
(pKa) y respuesta frente al tipo de detector seleccionado.
- Concentración del analito en la muestra. Para analitos en altas
concentraciones, en general se requieren preparaciones de muestras
sencillas como la solubilización y filtración. Analitos en bajas
concentraciones, pueden requerir metodologías más complejas.
- Naturaleza de la matriz de la muestra. Los componentes de la matriz
pueden interferir en la detección del analito. Hay que conocerlos para saber
cómo preparar la muestra.
- Forma en la que se presenta el analito en la muestra. Es necesario conocer
el estado en el que se encuentra el analito en la muestra. En muestras de
origen biológico el analito puede no encontrarse como tal, sino unido a
proteínas transportadoras, como metabolito, etc.
- Compatibilidad de los medios de solubilización con el sistema
cromatográfico. La solución a inyectar debe ser compatible y miscible con la
fase móvil.
- Tipo de detector. Los detectores poco selectivos como el de índice de
refracción generalmente requieren muestras mucho más limpias que los
detectores más selectivos como el de fluorescencia.
- Compatibilidad con el detector. No es conveniente utilizar solventes como la
acetona o el tolueno si se ha de emplear un detector UV porque estos
solventes poseen una elevada absorción de base y pueden producir picos
espúreos o señales importantes en el frente del solvente.
Es decir que cada muestra deberá ser preparada en forma apropiada para
reducir interferencias y aumentar la vida de la columna.

106
En los casos más simples, por ejemplo si la muestra es líquida, quizás
solamente se necesite inyectarla directamente, previa filtración, en cambio si es
un sólido es necesario pulverizarlo y homogeneizarlo apropiadamente y luego
solubilizarlo en un solvente adecuado.
En cambio, hay muestras que necesitan pasar por un proceso de
desproteinización previo a la inyección en el cromatógrafo, por ejemplo las
muestras biológicas. Este proceso se puede realizar agregando alguno de
estos agentes: solventes orgánicos, como el metanol, acetonitrilo o etanol,
sales neutras, ácidos, como el túngstico, tricloroacético, perclórico,
metafosfórico, cationes del tipo Hg2+, Cd2+, Fe3+, Cu2+ y Zn2+ o bien por
ultrafiltración. En muchos casos durante la desproteinización se produce una
pérdida de analito por adsorción al precipitado lo que acarrea bajas
recuperaciones, es decir baja exactitud analítica. Este efecto puede
minimizarse controlando apropiadamente las condiciones en las que se realiza
la desproteinización y agregando la solución muestra al agente
desproteinizante y no el agente desproteinizante a la solución muestra.
Puede ser necesario una extracción líquido-sólido, también llamada lixiviación,
que consiste en la solubilización del analito, presente en una muestra sólida
previamente molida, con un solvente adecuado, con la ayuda de agitación,
manual, mecánica o ultrasónica. Un tipo especial de extracción líquido-sólido
emplea sistemas continuos con solventes calientes (Soxhlet) y se aplican a
analitos poco solubles o a matrices muy complejas.
La extracción líquido-líquido también puede ser utilizada en algunas ocasiones,
para preparar una muestra antes de cromatografiarla, si bien la extracción
convencional es una operación lenta, tediosa y está expuesta a numerosos
problemas: formación de emulsiones, manipulación de grandes cantidades de
solventes tóxicos e inflamables, peligro en evaporaciones finales, etc.
En todos los casos la muestra deberá filtrarse antes de inyectarse al equipo, ya
que tanto las muestras como los estándares deben estar totalmente libres de
partículas en suspensión. La filtración de las muestras se realiza con
dispositivos desmontables o fijos que contienen membranas de 0.45 ó 0.22 μm

107
de un material apropiado, seleccionado de acuerdo a su resistencia frente al
solvente de disolución de las muestras.
Existe un proceso de extracción denominado en Fase Sólida, que utiliza
columnas o cartuchos de extracción, de suma utilidad cuando las muestras son
muy complejas y cuando la concentración del analito es muy baja, ya que
permiten aumentar su concentración. Consiste en una extracción líquido-sólido
a través de una pequeña columna ó cartucho de plástico (usualmente
polipropileno), relleno con cantidades variables (desde 100 hasta 500 mg) de
distintos materiales similares a los empleados para el relleno de las columnas
de HPLC, pero de mayor granulometría.

Cuerpo de la
columna
(polipropileno)

Filtro

Material
adsorbente

Filtro
Figura 9. Esquema de un cartucho de extracción en fase sólida

Los materiales que se emplean para el relleno comprenden desde adsorbentes


muy polares como la silica, hasta muy poco polares como una fase ligada de
RP-18, incluso también materiales de intercambio iónico.
La extracción en fase sólida tiene lugar mediante mecanismos de sorción-
desorción de los analitos en la superficie del material activo de las columnas.
La selección de las condiciones óptimas para la extracción depende de la
naturaleza del analito y de la matriz que lo rodea.
En primer lugar se debe lavar el cartucho para eliminar la sustancias
provenientes de muestras anteriores que pudieran quedar retenidas en la
columna, esto se realiza fluyendo metanol u otros solventes menos polares
como acetonitrilo o tetrahidrofurano. Luego debemos activar la columna, para
solvatar los grupos funcionales del material de relleno de la columna, en fase
reversa la activación se suele realizar percolando aproximadamente dos

108
volúmenes de columna de agua o buffers acuosos. A continuación se agrega
lentamente la muestra en la columna, utilizando un caudal determinado (1 a 10
ml/min). Esta operación puede efectuarse aplicando directamente la solución a
inyectar de manera tal de lograr la elución del analito y la retención de
impurezas cuyo comportamiento sea muy afín a la columna. Otra forma es
mediante la retención del analito en la columna utilizando un solvente débil, en
general seguido de un lavado con un solvente con el cual no eluya el analito y
posteriormente eluirlo con un solvente fuerte. Este método es el más habitual y
puede utilizarse para la preconcentración de muestras, pasando a través de la
columna un volumen mayor de muestra y luego eluyendo con poco volumen de
solvente.
Una vez aplicada la muestra deben eliminarse las impurezas retenidas en el
paso anterior utilizando un solvente relativamente débil con el cual el analito no
eluye. Finalmente el analito se eluye con un solvente tal que posea la fuerza de
elución apropiada utilizando para ello desde 5 hasta 20 volúmenes de columna.
Esta etapa puede realizarse impulsando el solvente con la ayuda de una
jeringa o aspirarlo con vacío. En todo momento las columnas deben
mantenerse húmedas y no dejar que se sequen para obtener una buena
recuperación del analito. Existen cámaras especialmente diseñadas para
efectuar todas las operaciones citadas, para ello se colocan varias columnas
juntas de manera tal que es posible procesar varias muestras en forma
simultánea. En muchos casos las columnas pueden reutilizarse dependiendo
de la naturaleza de los componentes de la matriz y de las condiciones de
lavado.

Figura 10. Esquema de una cámara para extracción en fase sólida

109
Dentro de las metodologías no convencionales de preparación de muestras
podemos citar a la denominada cromatografía de intercambio de columnas
(column- switching). Esta técnica se pudo aplicar gracias a la aparición de
válvulas apropiadas, con bajos volúmenes muertos y capacidad para operar a
altas presiones. Estas válvulas están construidas de acero inoxidable, soportan
presiones de hasta 6000 psi y se accionan electrónicamente, automatizando el
proceso de intercambio de columnas. Además existen válvulas de intercambio
de solventes que operan a bajas presiones, construidas de teflón y que se usan
en combinación con las de alta presión para las metodologías de intercambio
de columnas donde se seleccionan distintos solventes, y también se utilizan
solas para lavar las columnas, recolectar fracciones o purgar las celdas de
referencia de los detectores.

La cromatografía de intercambio de columnas comprende varios modos


diferentes de operación, entre ellos la selección de columnas, que combinada
con algún dispositivo que permita el cambio automático de solventes como las
válvulas de intercambio de baja presión, permite cambiar automáticamente las
columnas y los solventes. Otra aplicación es en la operación en contracorriente,
utilizada para solucionar los problemas que producen algunos compuestos muy
afines al material de relleno de las columnas que se retienen fuertemente y no
eluyen en las condiciones de operación habituales y deben removerse
diariamente con el lavado. Quizás la aplicación más frecuente de estos
métodos sea la preparación de la muestra en la misma línea del cromatógrafo
en forma automática (clean-up online) que puede efectuarse con la
combinación apropiada de una válvula, un guardacolumna y una columna
analítica. Fundamentalmente estas preparaciones comprenden la retención del
analito utilizando una fase móvil débil en un guardacolumna o columna
secundaria, el lavado de la misma, y la elución posterior utilizando un solvente
más fuerte.

110
Son también sumamente aplicados los métodos de enriquecimiento que
comprenden un proceso de concentración del analito en el mismo equipo
cromatográfico seguido de alguna modalidad de preparación de las muestras.
Pueden utilizarse sistemas similares a los indicados para la preparación de las
muestras en la figura 11 con la diferencia que el volumen de muestra
introducido es mucho mayor.
Otro procedimiento que se suele aplicar antes de cromatografiar una muestra
es la derivatización que se refiere a la reacción química que se produce entre el
analito y un reactivo determinado, ya sea dentro o fuera del equipo
cromatográfico. Si se efectúa antes de inyectar la muestra en el cromatógrafo,
la derivatización se denomina precolumna y los derivados ya formados se
separan en la columna cromatográfica.
Una de las mayores ventajas de la derivatización pre-columna reside en el
hecho que no existen limitaciones en cuanto a la cinética de la reacción, es
decir, que puede esperarse todo el tiempo que sea necesario como para

111
completar la reacción sin ningún perjuicio en el resultado cromatográfico.
Además, puede utilizarse un gran exceso de reactivo que puede eliminarse en
un paso previo o separarse en la misma corrida cromatográfica. La mayor
desventaja de los sistemas pre-columna reside en la posible aparición de picos
espúreos provenientes de derivados no deseados.
También puede realizarse la derivatización después de inyectar la muestra, en
cuyo caso se denomina post-columna. La derivatización post-columna
comprende la reacción química del analito en el mismo equipo de HPLC. Esta
reacción se realiza después de la separación cromatográfica en dispositivos
denominados reactores. En la figura 12 se esquematiza un equipo de HPLC
para operar con derivatización post-columna. Este instrumento consta de los
módulos habituales de un cromatógrafo convencional, conjuntamente con los
módulos necesarios para realizar la reacción de derivatización en la línea del
instrumento. En primer lugar se necesita una bomba para bombear el reactivo
hacia el eluyente de la columna. Esta bomba opera en la zona de baja presión
del instrumento por lo cual no necesita ser de alta presión. En segundo lugar se
necesita un dispositivo en el cual pueda mezclarse íntima y rápidamente el
líquido eluyente de la columna, este dispositivo se denomina mezclador y un
reactor donde los analitos puedan reaccionar a temperatura controlada con el
reactivo derivatizante.

Figura 12. Esquema de un equipo de HPLC para operar con derivatización post columna

112
Para aplicar un método de análisis por derivatización post-columna de las
muestras se debe conocer el tiempo necesario para completar la reacción. Las
reacciones rápidas pueden realizarse con reactores que permitan tiempos de
estadía cortos, mientras que las lentas requieren la utilización de reactores que
permitan mayores tiempos de estadía. En general no es necesario que la
reacción alcance su punto máximo, y puede operarse sin dificultad con
reacciones incompletas. Esto se debe a que la detección se realiza siempre al
mismo tiempo, aunque no se complete en su totalidad.
La elección de un método de derivatización pre o post-columna depende
principalmente de la velocidad de la reacción y de la compatibilidad de la
reacción (y los reactivos) con la fase móvil empleada.
Los motivos por los que se recurre a la derivatización pueden ser, en primer
lugar para mejorar la detección, debido a la falta de detectores universales que
posean la sensibilidad adecuada. Muchos compuestos que no poseen grupos
cromóforos o fluoróforos no pueden ser detectados mediante un detector de UV
o de fluorescencia, como por ejemplo los ácidos grasos y los aminoácidos.
Estas sustancias deben derivatizarse para poder detectarse por HPLC. Existen
diversos reactivos de derivatización dirigidos al grupo amino o al carboxilo.
Habitualmente se derivatiza el grupo amino para producir derivados
fluorescentes. Otro motivo por el cual se recurre a la derivatización es para
mejorar la selectividad, en este caso le utiliza para separar compuestos, que de
otra manera, o bien no se pueden separar o bien la separación resulta muy
compleja. Si bien la derivatización para mejorar la selectividad no es frecuente
en HPLC, dado que una adecuada combinación de fases estacionaria y móvil
puede resolver sin dificultades la mayoría de las preparaciones, existe un caso
especial que se refiere a la separación de isómeros ópticos. Como los
enantiómeros no poseen propiedades diferentes entre sí, salvo las que se
refieren a su comportamiento frente a la luz polarizada, difícilmente puedan
separarse por algún sistema cromatográfico. En este caso, y para lograr la
separación, los enantiómeros se derivatizan con reactivos estereoespecíficos
para formar los correspondientes diasteroisómeros, siendo estos últimos,

113
sustancias más simples de ser separadas. Se puede usar Fase Estacionaria ó
Fase móvil quiral, o combinar ambas.

Análisis cuantitativo

El análisis cuantitativo por medio de HPLC es tan confiable como el realizado


por cromatografía de gases. Etapas del análisis cuantitativo:
1. Muestreo.
2. Preparación de la muestra
3. Inyección de la muestra
4. Separación cromatográfica
5. Detección
6. Integración de la señal
7. Cálculo de la concentración del analito

Los puntos 1, 2, y 3 ya fueron oportunamente tratados.

4. Separación cromatográfica: Puede ser la fuente de muchos errores debido a


múltiples factores. Por ejemplo puede haber descomposición del analito o
interacción del analito con el instrumento, por ejemplo adsorción irreversible de
los componentes de la muestra en la columna, ya sea por efecto de la fase
móvil o del material de relleno de la columna, o también pueden ser errores
asociados a la separación en sí misma. Para minimizar estos últimos errores se
deben controlar los parámetros cromatográficos descriptos con anterioridad:
factor de capacidad (k’), tailing y resolución (R).

5. Detección: La sensibilidad, estabilidad, linealidad y especificidad del detector


son muy importantes. El tamaño de la muestra debe estar dentro del intervalo
lineal del detector, los cambios de flujo, de temperatura y las fallas electrónicas
pueden afectar las características de la respuesta del detector, por otra parte el
detector puede ser completamente ciego a un determinado tipo de muestra o

114
bien su sensibilidad variar para compuestos de diferente estructura. Por estas
razones se recomienda tener cuidado al interpretar los resultados.

6. Integración de señales: Se lleva a cabo por diversas técnicas que varían en


cuanto a complejidad y exactitud. El propósito de esta etapa es transformar de
alguna forma la intensidad de las señales emitidas por el detector en medidas
que puedan relacionarse con la cantidad de muestra. La señal generada por el
detector se transmite a integradores que transforman la señal analógica en
digital, calculan el área o altura de los picos y efectúan una serie de
operaciones programadas generando finalmente un reporte analítico.

7. Cálculo de la concentración de analito: Se lleva a cabo por alguno de los


siguientes métodos:

a) Normalización Interna ó Estandarización Interna. Relaciona las áreas


obtenidas con el % de composición de la mezcla.

1
3
A1
% A1   100 2

AreaTotal

Esta técnica requiere que todos los componentes de la mezcla sean separados
y que la respuesta del detector sea igual para todos ellos, condición ésta que
por lo común no se cumple y que da lugar a que la normalización de áreas lleve
implícito el uso de factores de corrección ó de respuesta.
b) Calibración Externa ó Estándar Externo. Es el método de cuantificación
más utilizado en HPLC. Consiste en la preparación de estándares de
concentración aproximadamente igual al analito en la muestra y en el
ensayo cromatográfico de ambas, muestra y estándar, en las mismas
condiciones operativas. La concentración de analito en la mezcla se
determina comparando el área del pico en cuestión con el área
correspondiente al estándar de referencia, es decir:

Am  C s
P  D  100
As 115
Donde P = % analito en la muestra
Am y As = áreas de la muestra y de estándar
Cs = concentración del estándar
D = factor de dilución
c) Estándar Interno. Consiste en agregar cantidades iguales y
exactamente medidas de la solución de una sustancia así denominada,
tanto a la muestra como a un estándar de referencia del analito. Para
determinar la concentración de analito en la muestra se calcula la
relación de áreas de analito a estándar interno tanto en la muestra
como en el estándar y se efectúa el cociente entre ambas, es decir:

Rm C s
P  D  100
Rs

Donde Rm y Rs son las relaciones de área de analito a estándar interno


en la muestra y el estándar respectivamente.
Este método no es sensible a los errores de inyección debido a que estos
errores se compensan al utilizar relaciones de áreas.
La sustancia utilizada como patrón interno debe ser similar al compuesto
analizado, estar presente en concentraciones similares, tener un tiempo de
retención cercano al del compuesto problema, pero sin interferir con él, ser
inerte y no formar parte de la muestra.
d) Estándar Agregado. Consiste en inyectar dos muestras para realizar un
análisis, una de ellas es la muestra tal cual y la otra es la muestra a la
que se le agrega una cantidad conocida de estándar de referencia. Esta
segunda muestra se utiliza como estándar. La concentración del analito
en la muestra se calcula de la siguiente manera:

Am  C s
P  D  100
A ms  A m

Donde P es el porcentaje de analito en la muestra, Am y Ams son las


áreas del analito en la muestra tal cual y la muestra a la que se le ha

116
agregado el estándar respectivamente, Cs es la concentración de
estándar y D es un factor de dilución.
Este método, como el del Estándar Externo, tiene principalmente dos
desventajas: requiere el uso de un estándar de referencia y es sensible a los
errores de inyección y preparación de la muestra. A pesar de que es mucho
menos utilizado resulta el método de elección cuando la matriz de la muestra
es muy compleja y lleva a cambios o deformaciones en los picos. En estos
casos suele también agregarse la matriz de la muestra al estándar como
alternativa al método del Estándar Agregado.
Con este método se puede, al igual que con los anteriores, efectuar
directamente los cálculos o trabajar con una curva de calibración. La diferencia
respecto de los otros métodos es que en este caso la curva de calibración no
es proporcional, es decir no pasa por el origen, y la ordenada al origen
corresponde a la concentración de analito en la muestra, como se puede ver en
la siguiente figura:

M+St 2
Respuesta

M+St1

M
Concentración

Agradecimiento: A la Lic. Analía Nolasco por el diseño de las figuras y


gráficos incluidos en el presente capítulo.

Preguntas Orientadoras

1. Defina los siguientes parámetros y explique conceptualmente qué


interpretan cada uno de ellos y para qué se utilizan:
* Tiempo de retención

117
* Número de platos teóricos
* Factor de capacidad
* Factor de separación
* Resolución
* Tailing

2. Con qué varía el Tiempo de Retención?

3. En un sistema cromatográfico en fase reversa cómo puede modificar


el factor de capacidad y el factor de separación?

4. Cuáles son las causas de la aparición del tailing? Cómo puede


disminuirlo?

Test de Autoevaluación

1. En la cuantificación de un principio activo por HPLC, con cuál de estos


métodos se independiza de los errores originados por variaciones en
el volumen de inyección de la muestra?
(a) Método del Estándar Interno
(b) Método del Estándar Externo
(c) Método del Estándar Agregado

2. La derivatización de un principio activo previo a la inyección en el


cromatógrafo puede realizarse cuando:
(a) El principio activo es polar
(b) El principio activo está en gran cantidad
(c) El principio activo no absorbe al UV

3. La velocidad lineal (µ) no depende de:


(a) El tamaño de partícula de la Fase estacionaria

118
(b) La sección interna de la columna
(c) La porosidad del relleno de la columna

4. En Cromatografía en Fase Reversa, con cuál de estas Fases Móviles


tendrá un mayor valor de k’ (Factor de Capacidad), para un
determinado principio activo:
(a) Metanol: Agua (60:40)
(b) Metanol: Buffer Fosfato (70:30)
(c) Acetonitrilo: Buffer Acetato (40:60)

5. Cuál de estos factores es importante para un buen rendimiento del


sistema de bombeo en HPLC?
(a) Fase móvil correctamente desgasificada
(b) Temperatura de trabajo
(c) Sistema de inyección automático

6. Cuál detector de los siguientes es más sensible?


(a) Detector de Indice de Refracción
(b) Detector UV
(c) Detector Electroquímico

7. Cuál de estas Fases Estacionarias se usan en Cromatografía de


Adsorción:
(a) Copolímero de estireno-divinilbenceno
(b) Dextrano
(c) Alúmina

8. Cuál de estos factores extra-columnares influye en el


ensanchamiento de los picos:
(a) Volumen de inyección
(b) Material de las tuberías
(c) Longitud de onda de detección

119
9. En HPLC, cuál de los siguientes parámetros interpreta la Eficiencia
de la columna cromatográfica:
(a) Tiempo de retención
(b) Número de platos teóricos
(c) Factor de capacidad

Bibliografía

1. Snyder, L. R.; Kirkland, J. J. (1979) Introduction to modern liquid


chromatography. Wiley Int. Publication
2. Asshauer J.; Ullner H. (1986) Practice of High Performance Liquid
Chromatography. Springer-Verlag
3. Quattrocchi, O.; Abelaira de Andrizzi, S. I.; Laba, R.F. (1992)
Introducción a la HPLC. Aplicación y Práctica. Buenos Aires: Artes Gráficas
Farro
4. Novotny, M.; Wainer, I. (1985) Liquid Chromatography in Pharmaceutical
Development: An Introduction. Aster Pub.Co. Springfield
5. Engelhardt, H. (1986) Practice of HPLC, Applications, Equipment and
Quantitative Analysis. Springer-Verlag, Heidelberg
6. Farmacopea de los Estados Unidos de América (USP 34) (2011)
Rockville.
7. Skoog, D. A.; Leary, J.J. (1996) Analisis instrumental. Mc Graw-Hill, 4ª.
Ed.
8. Ministerio de Salud – ANMAT. Farmacopea Argentina. VII ed. (2003)
Buenos Aires.

120
CAPITULO 5
ELECTROFORESIS CAPILAR
Pablo Quiroga

Introducción

La Electroforesis Capilar (EC), constituye una técnica de separación efectiva


para un amplio espectro de analitos, desde pequeños iones inorgánicos hasta
macromoléculas, permitiendo la separación tanto de moléculas cargadas como
no cargadas. La misma provee datos confiables, requiere una preparación
mínima de las muestras, ofrece un alto grado de automatización, presenta alta
eficiencia en la separación, cortos tiempos de análisis, bajo volumen de
inyección, permite la separación quiral sin la necesidad de columnas
especiales, es de fácil operación y permite una variedad de sistemas de
detección.

Principios básicos y fundamentos

La Electroforesis Capilar (EC) utiliza un campo eléctrico para separar los


componentes de una mezcla, y se diferencia de otras formas de electroforesis
en que la misma es llevada a cabo dentro de un capilar de diámetro estrecho.
Fue desarrollada combinando propiedades o características de distintos
métodos, los cuales incluyen, el principio de la electroforesis en gel, la
Cromatografía Gaseosa en capilar de sílice fundido (GC) y la Cromatografía
Líquida de Alta Performance (HPLC) con detectores altamente sensibles. Es
altamente reconocido que las moléculas pueden estar cargadas eléctricamente
ya sea de modo positivo o negativo; cuando el número de cargas positivas y

121
negativas es el mismo, las cargas se cancelan dando origen a una molécula
neutra (sin carga). Si tenemos una mezcla constituida por sustancias iónicas
disueltas en un solvente o medio adecuado (por ejemplo: agua), en ausencia
de un campo eléctrico, el movimiento de los iones es esencialmente al azar
,pero, cuando un campo eléctrico es aplicado, las especies cargadas inician su
movimiento y el mismo da como resultado una distribución de las partículas
cargadas menos al azar, los cationes (iones cargados positivamente) se
mueven hacia el cátodo (electrodo de carga negativa) y los aniones (iones
cargados negativamente) se mueven hacia el ánodo (electrodo cargado
positivamente) (ver figura 1).

Figura 1. Principio básico de la electroforesis

La electroforesis en solución, se basa en la relación (carga / masa). En la


Figura 1, podemos observar cuatro tipos de especies cargadas: partículas
pequeñas y grandes cargadas positivamente y partículas pequeñas y grandes,
cargadas negativamente, si cada partícula tiene una sola carga, el valor
absoluto de la Fuerza (F) en cada una de ellas puede ser la misma y la
aceleración creada por esta fuerza está dada por la siguiente ecuación:
F = masa x aceleración
El principio básico de la EC se basa en la migración diferencial de iones o
solutos bajo la influencia de un campo eléctrico, en la misma, el fenómeno de

122
electroforesis es llevado a cabo dentro de un capilar de diámetro estrecho,
relleno con electrolitos. Una de las ventajas de que la electroforesis se realice
en capilares de diámetro estrecho (20 µm a 100 µm) es que los mismos evitan
la generación de gradientes de temperatura, los cuales generan
ensanchamiento de los picos y pérdida de resolución. La movilidad de los
analitos depende de su tamaño, carga, el grado de ionización, la viscosidad del
medio, temperatura, voltaje y constante dieléctrica del electrolito soporte.
La separación por electroforesis como dijimos anteriormente, se basa en las
diferentes velocidades de los solutos bajo la influencia de un campo eléctrico,
la velocidad de un ion puede expresarse con la siguiente ecuación:
vef = ef x E (Ec. 1)
Dónde: vef: velocidad del ion; ef: movilidad electroforética y E: campo eléctrico
aplicado. El campo eléctrico (E), es una función del voltaje aplicado (V) y la
longitud total del capilar (L) (Volts/cm).
La movilidad, para un determinado ion y en un determinado medio, es una
constante, la cual es característica de dicho ion, la misma es el resultado de
dos factores: por un lado el ion es atraído hacia el electrodo de carga opuesta
moviéndose través del medio y al mismo tiempo, fuerzas de fricción dificultan
su movimiento. El balance de estas dos fuerzas determina su movilidad final:
ef  Fuerza Eléctrica (FE) (Ec. 2)
Fuerza de Fricción (FF)
La Fuerza del campo eléctrico y la Fuerza de Fricción, pueden representarse
por las siguientes ecuaciones:
FE = q x E (Ec. 3)
FF = -6  r v (Ec. 4)
Dónde: q: carga del ión; : viscosidad de la solución; r: radio del ión; v:
velocidad del ión.
Durante el estado estacionario en la electroforesis, definido por el balance de
estas fuerzas, las mismas son iguales pero opuestas, igualando las ecuaciones
3 y 4 obtenemos:
q x E = -6  r v (Ec. 5)
Si reemplazamos la velocidad en la ecuación 5, por la ecuación 1, resulta:

123
q x E = -6  r ef x E (Ec. 6)
q = -6  r ef – Despejando el término correspondiente a ef, obtenemos la
siguiente relación:
ef = q / 6  r (Ec. 7)
Por lo tanto un ion de pequeño tamaño, sufrirá menores fuerzas de fricción y
por lo tanto se moverá en el medio con mayor velocidad que uno de mayor
tamaño, similarmente un ion con cargas múltiples, experimentará una mayor
atracción hacia el electrodo moviéndose en el medio también más rápidamente.
Está diferencia de velocidades es el fundamento del efecto de separación en la
electroforesis.

Flujo Electroosmótico

Cuando se aplica un campo eléctrico a través del capilar relleno con solución
amortiguadora, se genera un flujo de disolvente dentro del capilar que se
denomina Flujo Electroosmótico (EOF), el mismo es un fenómeno que existe
en un sistema electroforético, el mismo se genera, debido a que los capilares
utilizados están constituidos por sílice fundida (cuarzo), por lo tanto la superficie
interna del capilar está constituida por grupos silanoles (Si–OH), los cuales
pueden presentar múltiples grados de ionización (pI = 3.0), por lo tanto, a todo
pH > a 3.0 los grupos silanoles se ionizan o hidrolizan en un buffer electrolito
acuoso, generando u originando como resultado una superficie interna del
capilar negativa. Las cargas negativas de la pared interna del capilar, atraen los
cationes de la solución del electrolito, los cuales están hidratados, creando una
diferencia de potencial (potencial zeta) y generando una doble capa eléctrica.
Cuando un voltaje es aplicado a través del capilar, los cationes que forman la
doble capa difusa, son atraídos hacia el cátodo, y como los mismos están
solvatados / hidratados, generan un movimiento de fluido hacia el cátodo,
dando origen al EOF. La velocidad del EOF, depende de la movilidad
electroosmótica (eof) que a su vez depende de la densidad de la carga en la
pared interna del capilar y de las características de la solución amortiguadora.

124
La velocidad electroosmótica (veof) a través del capilar, está definida por la
ecuación de Smoluchowski:
veof = -(/4) E (Ec.8)
Dónde  es la constante dieléctrica del electrolito,  es el potencial zeta (Volts),
 es la viscosidad (Poise) y E es el potencial aplicado (Volts/cm). Controlando
la magnitud del EOF, se puede influenciar de manera significativa la eficiencia
y selectividad de la separación, debido a que el EOF es la principal fuerza que
dirige la EC produciendo la migración de los analitos a través del mismo. Los
factores que afectan el EOF incluyen, el campo eléctrico, pH, la concentración
iónica del buffer electrolito soporte o solución amortiguadora, la adición de
aditivos, temperatura y recubrimiento capilar.
Una característica importante del EOF, es el perfil de flujo plano, lo que indica
que las fuerzas impulsoras del flujo están uniformemente distribuidas a lo largo
del capilar. Este flujo plano es beneficioso para la separación, debido a que el
mismo no contribuye a la dispersión de la zona de los solutos. Bajo condiciones
normales (superficie del capilar cargada negativamente), el EOF tiene la
dirección ánodo-cátodo, por lo tanto La movilidad electroforética del analito y la
movilidad del EOF, pueden actuar en la misma dirección o en direcciones
opuestas, dependiendo de la carga del soluto. En la electroforesis capilar
normal, los aniones migrarán en la dirección opuesta al flujo electroosmótico y
sus velocidades serán menores que la velocidad electroosmótica. Los cationes
migrarán en la misma dirección del flujo electroosmótico y sus velocidades
serán mayores que la velocidad electroosmótica. Bajo condiciones en las
cuales hay una velocidad electroosmótica rápida con respecto a la velocidad
electroforética de los solutos, tanto los cationes como los aniones se pueden
separar en la misma corrida. Las movilidades eletroforéticas y electroosmótica
del analito pueden tener el mismo sentido o sentido opuesto, según la carga
(positiva o negativa) del soluto, resultando la velocidad del soluto (v) la
siguiente:
v= vef + veof (Ec.9)
Se utiliza la suma o la diferencia entre las dos velocidades (vef y veof)
dependiendo de si las movilidades tienen el mismo sentido o sentido opuesto,

125
por lo tanto lo que medimos en presencia del EOF, es la llamada movilidad o
velocidad aparente y no intrínseca de cada analito.
El tiempo que tarda en migrar la distancia (l) desde el extremo de inyección del
capilar al punto de detección (longitud efectiva del capilar) es el siguiente:
t = l / (vef + veof) (Ec. 10)

Descripción y tipo de instrumental

Figura. 2. Esquema equipo básico de electroforesis capilar

Un equipo de Electroforesis capilar (ver Figura 2), está compuesto basicamente


por una fuente de alimentación de alto voltaje controlable, dos reservorios para
las soluciones amortiguadoras, que se mantienen en el mismo nivel y que
contienen las soluciones anódicas y catódicas, dos electrodos (ánodo y cátodo)
sumergidos en los reservorios de las soluciones amortiguadoras y conectados
a la fuente de alimentación, un capilar, generalmente de sílice fundida
(cuarzo), donde se lleva a cabo la separación, cuyos extremos se encuentran
ubicados en los recipientes de las soluciones amortiguadoras. El material del
capilar debe ser química y eléctricamente inerte, transparente al UV-Visible,
flexible y robusto; la sílice fundida (cuarzo), reúne la mayoría de estos
requerimientos, y es por esta razón que el mismo es primariamente el material

126
empleado hoy en día. Para facilitar el manejo del capilar, el mismo esta
recubierto por una capa protectora de poliimida, la cual le confiere alta
flexibilidad, la desventaja que presenta este recubrimiento, es que el mismo es
opaco a la luz UV, por lo tanto el mismo debe ser removido con el objetivo de
generar una ventana o celda de detección sobre el capilar, esta ventana de
visualización óptica, está alineada con el detector y permite la denominada
detección “en línea”, es decir los analitos son detectados ha medida que migran
por el capilar. Un aspecto crítico del capilar lo representa el espesor de la pared
del mismo, debido a la generación de calor, el cual es producido cuando una
corriente eléctrica pasa a través de un electrolito, este calor debe ser removido
para evitar la generación de gradientes de temperatura y esto se logra
reduciendo el espesor de la pared del capilar (25-75 m), permitiendo de esta
manera una disipación uniforme del mismo.
Otro componente fundamental de un equipo de EC, es el sistema de
introducción cuantitativa (debido a que el volumen de muestra no es medido si
no calculado mediante ecuaciones) de la muestra al capilar, la misma puede
ser realizada por numerosos métodos, los dos más comúnmente utilizados son:
inyección electrocinética o hidrodinámica. La inyección hidrodinámica (ver
figura 3), se basa en las diferencias de presión entre el inicio y el final del
capilar, la cual puede ser llevada a cabo mediante la aplicación de presión en el
vial de entrada de la muestra, aplicación de vacío en el extremo final del capilar
o por elevación del vial de ingreso de la muestra respecto del reservorio de
salida de la muestra (efecto sifón). Con este tipo de inyección, la cantidad de
muestra cargada dentro del capilar, es independiente de la matriz de la
muestra. En la inyección electrocinética, el reservorio inicial es reemplazado
por el vial conteniendo la muestra, un bajo voltaje (ej. 5-10 KV) es aplicado
durante la inyección, este voltaje de inyección es generalmente 3 a 5 veces
menor que el utilizado para llevar a cabo la separación de los componentes de
la muestra. Durante este tipo de inyección los analitos ingresan al capilar tanto
por migración como por acción de bombeo del EOF. Una propiedad única de
este tipo de inyección es que la cantidad ingresada o cargada en el capilar es
dependiente de las movilidades electroforéticas de los solutos individuales,

127
introduciendo un posible sesgo en los resultados. La inyección electrocinética
es muy simple y ventajosa cuando son empleados medios viscosos o geles en
el capilar y cuando la inyección hidrodinámica no es efectiva.
Sistemas de detección: la separación en EC, puede ser detectada por diversos
sistemas de detección, los cuales incluyen, UV, UV-Visible, fluorescencia
inducida por láser, espectrometría de masas, fluorescencia,
quimioluminiscencia, amperometría, NMR, etc. La detección UV indirecta es
ampliamente utilizada para la detección de solutos que no contienen grupos
cromóforos en su estructura, tales como, iones metálicos, o aniones
inorgánicos. En el caso de la detección UV indirecta, es necesario la adición de
una sustancia cromofora a la solución amortiguadora.

Figura. 3. Diagrama de los métodos de introducción de la muestra al capilar

Modos de separación en electroforesis capilar

El proceso de electroforesis capilar, es actualmente un término genérico y


dependiendo del tipo de capilar y el electrólito utilizado, la tecnología de EC
puede ser dividida en diferentes técnicas o modos de separación:
Electroforesis Capilar en Solución Libre (ECSL), Electroforesis Capilar en Gel,
Cromatografía Electrocinética Capilar, Cromatografía Electrocinética Micelar

128
(CECM), Isoelectroenfoque Capilar, Electroforesis Capilar Quiral (ECQ), entre
otras. A continuación, se describen los modos de separación de mayor
aplicación en el análisis farmacéutico de pequeñas moléculas:
Electroforesis Capilar en Solución Libre (ECSL): en esta técnica de EC, los
analitos se separan en un capilar que contiene únicamente una solución
amortiguadora sin ningún medio anticonvectivo. La separación ocurre debido a
que los distintos componentes de la muestra migran como bandas discretas
con velocidades diferentes. La velocidad de cada banda depende de la
movilidad electroforética (relación carga/masa) del soluto y del flujo
electroosmótico en el capilar. Es el modo más comúnmente utilizado en EC. El
orden de migración en esta técnica, será el siguiente: los cationes con grandes
relaciones carga/masa, migrarán primero, seguido por los cationes con relación
carga/masa menor, los solutos neutros, aniones con menor relación
carga/masa, y finalmente los aniones con mayor relación carga/masa.

Figura. 4. Orden de migración en electroforesis capilar en solución libre

Está técnica permite separar tanto aniones como cationes en la misma corrida
bajo condiciones de alto EOF. Esté método de EC es apropiado para el
análisis de moléculas pequeñas (PM <2000) y grandes (2000 < PM < 10000).
Debido a la alta eficiencia lograda, se pueden separar moléculas que presenten
diferencias pequeñas en su relación carga/masa. Esté método también permite
la separación de compuestos quirales al agregar selectores quirales a la
solución amortiguadora de separación.
Para lograr una óptima separación, hay que tener en cuenta diferentes
parámetros que se describen a continuación:

129
Voltaje: el tiempo de separación es inversamente proporcional al voltaje
aplicado, sin embargo, un aumento en el voltaje aplicado, puede producir la
generación de un calor excesivo, aumentando de esta manera los gradientes
de temperatura y viscosidad en la solución amortiguadora dentro del capilar,
cuya consecuencia es el ensanchamiento del pico o banda de cada soluto con
la consecuente disminución de la resolución.
Temperatura: el principal efecto de la misma es sobre la viscosidad y la
conductividad eléctrica de la solución amortiguadora, afectando la velocidad de
migración.
Capilar: el largo y diámetro interno del capilar afectan el tiempo de análisis y la
eficiencia de las separaciones. El aumento tanto del largo efectivo, como del
largo total, permiten disminuir los campos eléctricos a un voltaje constante, lo
cual aumenta el tiempo de migración. Para una solución amortiguadora y un
campo eléctrico determinado, la disipación del calor (ensanchamiento del pico
o banda de cada soluto) depende del diámetro interno del capilar, como hemos
descripto anteriormente. Es importante destacar que el diámetro del capilar
puede afectar el límite de detección, dependiendo del volumen de muestra
inyectado en el mismo y el sistema de detección utilizado.
Cromatografía Electrocinética Micelar (CECM):
En esta técnica, la separación ocurre en una solución electrolítica que contiene
un agente tensioactivo, generalmente iónico (el más comúnmente utilizado es
el Dodecilsulfato de sodio), en una concentración por encima de la
concentración micelar crítica. El principio de la separación, está basado en la
partición diferencial de las moléculas de soluto entre la solución amortiguadora
acuosa y la pseudo fase estacionaria compuesta por las micelas según el
coeficiente de partición del soluto. Está técnica puede ser considerada un
híbrido entre la electroforesis y la cromatografía. Presenta gran utilidad para la
separación de mezclas que contienen, tanto especies iónicas como neutras y
compuesto farmacéuticos muy hidrofóbicas y sus correspondientes metabolitos
polares. En la CECM, las moléculas hidrofóbicas permanecerán la mayoría del
tiempo en la micela, mientras que las moléculas hidrofílicas migrarán
rápidamente a través del solvente.

130
A pH neutro y alcalino, se genera un flujo electroosmótico fuerte que arrastra
los iones de la solución amortiguadora de separación hacia el cátodo. Si se
utiliza dodecilsulfato de sodio como tensioactivo, la migración electroforética de
la micela aniónica se produce en sentido opuesto. Como resultado, la velocidad
general de migración de las micelas disminuye en comparación con el EOF. En
el caso de solutos neutros, como el mismo puede repartirse entre la micela y la
solución amortiguadora acuosa y no tiene movilidad electroforética, la velocidad
de migración del analito dependerá únicamente del coeficiente de partición
entre la micela y la solución amortiguadora. En el electroferograma, el pico
correspondiente a cada soluto sin carga, siempre se encuentra entre el del
marcador del flujo electroosmótico y el de la micela; y el tiempo transcurrido
entre estos dos picos se denomina ventana de separación. Para los solutos con
carga eléctrica, la velocidad de migración depende del coeficiente de partición
del soluto entre la micela y la solución amortiguadora acuosa y de la movilidad
electroforética del soluto en ausencia de micelas.
El mecanismo de separación es esencialmente cromatográfico y la migración
del soluto y la resolución se pueden expresar en función del factor de
capacidad del soluto (K¨), que es la relación entre el número total de moles de
soluto en la micela y los moles en la fase móvil. Si consideramos un compuesto
neutro, K¨ está dado por la siguiente ecuación:
K¨ = (tr – t0) / t0 ( 1- tr / tm) = K [ VS / VM] (Ec.11)
tr , es el tiempo de migración del soluto; T0 es el tiempo de análisis del soluto no
retenido obtenido al inyectar un marcador de flujo electrosmótico que no
ingresa ni interactúa con la micela (ej. Metanol); tm es el tiempo de migración de
la micela medido al inyectar un marcador de micela, (Ej. Sudam III) el cual
migra asociado de manera continua con la micela; K es el coeficiente de
partición del soluto; VS es el volumen de la fase de las micelas; y VM es el
volumen de la fase móvil.
Para lograr una óptima separación hay que tener en cuenta diferentes
parámetros que se describen a continuación:
Voltaje: el tiempo de separación es inversamente proporcional al voltaje
aplicado, sin embargo, un aumento en el voltaje aplicado, puede producir la

131
generación de un calor excesivo, aumentando de esta manera los gradientes
de temperatura y viscosidad en la solución amortiguadora en la sección
transversal del capilar, este efecto puede ser significativo con amortiguadores
de pH de alta conductividad, como por ejemplo aquellos que contienen micelas.
La disipación insuficiente del calor ensancha el pico o banda y disminuye la
resolución.
Temperatura: las variaciones en la temperatura del capilar afectan el
coeficiente de partición del soluto entre la solución amortiguadora y la micela, la
concentración micelar crítica, y la viscosidad de la solución amortiguadora,
todos estos parámetros afectan el tiempo de migración de los solutos.
Capilar: el largo y el diámetro interno contribuyen al tiempo de análisis y a la
eficiencia de las separaciones. El aumento del largo efectivo y del largo total
puede disminuir los campos eléctricos, trabajando a un voltaje constante,
aumenta el tiempo de migración y mejora la eficiencia de la separación.
Tipo de agente tensioactivo y concentración: el tipo de agente tensioactivo, al
igual que la fase estacionaria en cromatografía, afecta la resolución ya que
modifica la selectividad de la separación. El logaritmo de K¨ de un compuesto
neutro aumenta linealmente con la concentración de detergente en la fase
móvil. Cuando K¨ se acerca al valor de (tm / t0)1/2 la resolución de la CECM
alcanza su máximo. La modificación de la concentración del agente
tensioactivo cambia la resolución.
pH: si bien el pH no modifica el coeficiente de partición de solutos no ionizados,
puede modificar el EOF en capilares sin recubrimiento. Si se disminuye el pH
de la solución amortiguadora, disminuye el EOF, aumenta la resolución de los
solutos neutros y aumenta el tiempo de análisis.
Disolventes orgánicos: la adición de solventes orgánicos a la solución
amortiguadora (ej. Metanol, acetonitrilo, propanol, etc) disminuye el tiempo de
migración, también afecta la formación de las micelas por lo cual estos
modificadores orgánicos pueden utilizarse hasta una concentración
determinada para un agente tensioactivo específico, de manera de evitar la
eliminación o alteración del equilibrio de micelación. Si desaparecen las
micelas, desaparece el mecanismo de partición de la CECM.

132
Electroforesis Capilar Quiral: la separación quiral, constituye una herramienta
muy importante para la separación de drogas quirales, porque numerosas
moléculas farmacéuticas son quirales y cada enantiómero expresa una
actividad farmacológica y toxicológica diferente, por ejemplo: AINES, y drogas
antihipertensivas. La separación quiral es necesaria en el análisis farmacéutico
para la obtención del enantiómero seguro y efectivo. La ECQ, puede ser
llevada a cabo por métodos directos o indirectos. En los métodos indirectos, la
mezcla racémica interacciona con un reactivo quiral originando
diastereoisomeros con propiedades físicas y químicas diferentes, permitiendo
separa ambos diastereoisomeros. En los métodos directos, los selectores
quirales son adicionados a la solución amortiguadora para interaccionar de
manera estereoselectiva con cada enantiómero. El método directo, es más
favorable que el método indirecto, debido a que es más simple y se cuenta con
una amplia disponibilidad de selectores quirales. Las ciclodextrinas son los
selectores quirales más utilizados en la separación quiral de drogas y forman
complejos de inclusión con los enantiómeros. La separación quiral puede ser
realizada mediante la aplicación de la CECM, en la cual se adicionan
selectores quirales en el sistema micelar unido al agente tensioactivo por
enlace covalente o agregando directamente al electrolito de separación micelar
Las micelas que tienen un grupo con propiedades de discriminación quiral
incluyen sales, N-dodecanoil-L-aminoacidos, sales biliares, etc.

Análisis cuantitativo en electroforesis capilar

Las áreas de los picos se dividen por el tiempo de migración correspondiente


con el objetivo de obtener el área corregida a fin de compensar el cambio en el
tiempo de migración de corrida a corrida, reduciendo la variabilidad de la
respuesta. Dividiendo las áreas de los picos por el tiempo de migración, se
compensan las distintas respuestas de los constituyentes de la muestra que
tienen diferentes tiempos de migración. Cuando se utiliza un estándar interno,

133
hay que verificar que no enmascare ninguno de los picos de la muestra a
analizar.

Aplicaciones de la Electroforesis Capilar al análisis farmacéutico

La EC es una poderosa herramienta analítica, la cual ha incrementado su


utilidad en el análisis farmacéutico en los últimos tiempos. Es utilizada como
una técnica alternativa al HPLC, debido a su alta eficiencia, velocidad de
análisis, reducción en el consumo de solventes y muestra, y bajo costo de
operación comparada con la metodología por HPLC. Es utilizada en el control
de calidad de rutina, en la valoración de ingredientes farmacéuticos activos en
las distintas formas farmacéuticas, evaluación de impurezas en productos
farmacéuticos, separación y cuantificación de moléculas quirales, cuantificación
de principios activos y/o metabolitos en fluidos biológicos, estudios de
estabilidad y es altamente utilizada en la industria farmacéutica biotecnológica.

Preguntas Orientadoras

1. Describa el fundamento de la Electroforesis Capilar.

2. A que se denomina ventana de separación y como procedería para


evaluar la misma?

3. Que técnica de electroforesis capilar utilizaría para la separación de


compuestos neutros? Justifique.

4. Describa el Flujo electroosmótico.

5. Que parámetro utiliza en la cuantificación de un analito en EC y que


precauciones debe seguir con el mismo.? Justifique

134
Test de Autoevaluación

1. El calor generado durante una separación por EC


(a) Aumenta la resolución.
(b) Disminuye el ancho de las bandas o picos
(c) Aumenta el ancho de las bandas o picos y disminuye la
resolución
(d) Aumenta la eficiencia

2. La separación y cuantificación de compuestos quirales puede


llevarse a cabo utilizando:
(a) Electroforesis capilar en Solución Libre
(b) Cromatografía Electrocinética Micelar
(c) Cromatografía Electrocinética Micelar con selectores quirales
(d) Electroforesis capilar en Solución Libre con la adición de
selectores quirales

3. La modificación de la Temperatura en la EC:


(a) Afecta la conductividad eléctrica
(b) Afecta la viscosidad de la solución amortiguadora
(c) Afecta el tiempo de migración
(d) Todas son correctas

4. El Flujo Electroosmótico es mayor a:


(a) pH ácidos
(b) pH neutro
(c) pH alcalino

135
Bibliografía

1. Farmacopea de los Estados Unidos de América (USP 34) (2011)


Rockville

2. Farmacopea Europea (Ph. Eur. 7.0) (2011).

3. Bhupinder, S, S. (2011). An Overview of Capillary Electrophoresis:


Pharmaceutical, Biopharmaceutical and Biotechnology Applications. J. Pharm.
Educ. Res. Vol.2. pp 2-21

4. Suntornsuk, L. (2007). Capillary Electrophoresis in Pharmaceutical


Analysis: A Survey on Recent Applications. Journal of Chromatographic
Science. Vol. 45. pp 559.

5. Petersen, J.R. and Mohammad A. A. (2001). Clinical and Forensic


Applications of Capillary Electrophoresis. Humana Press.Inc, Totowa, NJ

6. Heiger,D. (1992). High Performance Capillary Electrophoresis- An


Introduction. Hewlett – Packard Company. “2nd Edition.

136
CAPITULO 6
MÉTODOS ESPECTROSCÓPICOS APLICADOS AL ANÁLISIS FARMACÉUTICO
María Guillermina Volonté

Introducción

Todos los átomos y moléculas son capaces de absorber energía, de acuerdo


con ciertas limitaciones, las cuales dependen de la estructura de la sustancia.
La energía se puede proporcionar en forma de radiación electromagnética (luz).
El tipo y cantidad de radiación absorbida por una molécula guarda relación con
la estructura de la molécula; la cantidad de radiación absorbida depende del
número de moléculas que interaccionan con la radiación. El estudio de estas
dependencias se conoce como Espectroscopia de absorción.
La espectroscopia de absorción es, indudablemente una de las técnicas
analíticas más útiles; sus ventajas incluyen rapidez, sencillez, especificidad y
sensibilidad.

Espectroscopía ultravioleta y visible

Consiste en la medida de la absorción de las radiaciones electromagnéticas


comprendidas en un intervalo espectral de 200 a 400 nm para la región
ultravioleta y de 400 a 700 nm para la región visible.
El grado en que la radiación es absorbida se expresa en términos de
absorbancia, A, que es el logaritmo decimal de la inversa de la transmitancia,
T, siendo esta última definida como la fracción de radiación incidente que logra
atravesar la muestra.

1 I
A  log  log 0
T I

137
Donde I0 es la intensidad de radiación incidente e I es la intensidad de
radiación transmitida.
De acuerdo con la ley de Lambert Beer, la absorbancia es proporcional al paso

óptico, b, de la capa absorbente atravesada por la radiación y a la


concentración, c, del analito:

A  kbc (1)

La constante de proporcionalidad, k, es independiente de la concentración,


paso de luz e intensidad de la radiación. Depende de la temperatura,
disolvente, estructura molecular y longitud de onda () de la radiación. Asume
distintas denominaciones según las unidades en que b y c se expresan:
Absortividad (a): es la absorbancia de una solución cuya concentración
es de 1 g por litro, medida en una celda de paso óptico b, de 1 cm.

A
a
cb

1%
Absortividad específica ( A1cm ): es la absorbancia de una solución

cuya concentración es de 1%, medida en una celda de paso óptico b, de 1 cm.

A
A11cm
%
  10a
cb
Absortividad molar (): es la absorbancia de una solución cuya
concentración es 1 mol por litro, medida en una celda de paso óptico b, de 1
cm. Puede calcularse como el producto de la absortividad por el peso
molecular, PM, del analito:

 = aPM

Los valores de a, A11cm


%
y , a una longitud de onda específica y en un solvente

determinado son característicos del analito.

138
Espectro de absorción

Se obtiene un espectro de absorción midiendo la absorbancia de una solución


como función de la longitud de onda. Los espectros ultravioleta y visible (UV-
VIS) se representan como trazados de la absorbancia (eje de ordenadas)
respecto a la longitud de onda.

A
b
s
o
r
b
a
n
c
i
a

Longitud de onda (nm)

Figura 1. Espectro típico de absorbancia de una sustancia determinada

Análisis cuantitativo

Si de una serie de soluciones de la misma sustancia se mide la absorbancia de


cada una de ellas a la misma longitud de onda, temperatura y condiciones de
disolución, y se representa la absorbancia de cada solución en función de su
concentración se obtendrá por lo general, una línea recta que pasa por el
origen, de acuerdo con la ecuación (1). Esta gráfica se denomina trazado de la
ley de Beer, o curva de calibración para el método de absorción UV-VIS, y si la
línea es recta se dice que cumple con la ley de Beer en el margen de
concentración investigado.
La pendiente de la línea es igual a [kb] y dado que se conoce b se puede
calcular la absortividad (k).

139
La longitud de onda seleccionada para la determinación de la absortividad es
usualmente  max, por dos razones:
1) la sensibilidad máxima se alcanza trabajando en el máximo de la banda,
puesto que una concentración dada produce la señal más fuerte a esta
longitud de onda;
2) la variación de la absorbancia para pequeños cambios de la longitud de
onda es mínima en el máximo de la banda; por consiguiente, los
inevitables pequeños errores en la fijación del selector de longitudes de
onda del instrumento no serán causa de grandes errores en la medida
de la absorbancia.

Análisis de un componente único

Para determinar la concentración de una muestra desconocida con un único


componente, se debe obtener una curva de calibración usando soluciones de
un estándar del principio activo. La longitud de onda seleccionada corresponde
al máximo de absorción. Luego se mide la absorbancia de la muestra
desconocida y su concentración puede obtenerse gráficamente, por
intersección en la curva de calibración, o analíticamente, por interpolación en la
ecuación de la recta.
En una versión simplificada de este método se emplea una medida
concomitante "unipuntual" de la Absorbancia con la solución de la muestra y
una solución preparada con un estándar de referencia o Sustancia de
Referencia (SR), y se expresa la ley de Beer para cada solución:

Ap = abCp p = Sustancia de Referencia (SR)


Am = abCm m = muestra
Dividiendo estas ecuaciones y resolviendo para Cm

AmxCp
Cm 
Ap

140
La reproducibilidad dentro de una serie de medidas individuales es usualmente
0.5-2% Por ello, para reproducir la absortividad es necesario realizar las
lecturas de referencias o patrones, y muestras al mismo tiempo y con el mismo
equipo. En el caso de que se haya obtenido una curva de calibración, es
conveniente realizar un control de la misma cada vez que se emplea.

Análisis de multicomponentes

En caso de tener una mezcla de dos sustancias en un disolvente transparente


y que cada una de las mismas absorba luz, procedemos de la siguiente
manera: si los espectros de absorción de los dos componentes son tan
diferentes que se pueden encontrar dos longitudes de onda en las cuales cada
sustancia absorbe luz sin interferencia de la otra, el problema se reduce al del
análisis de un componente único, porque ningún componente interfiere en el
análisis de los demás. En el caso más general, ambas sustancias absorben luz
a las mismas longitudes de onda, pero si sus espectros de absorción son
marcadamente distintos aún es posible analizar la mezcla.
Primero hay que determinar los espectros de absorción de los dos
componentes puros (P y Q), los cuales se comparan convirtiendo los valores de
absorbancia a un dato común, como absortividades molares y procediendo a
superponer los espectros. Se seleccionan dos longitudes de onda analíticas, de
tal forma que sea máxima la diferencia entre la absorción de los compuestos a
estas longitudes de onda siendo la absortividad del compuesto P mayor que
para el compuesto Q a una longitud de onda y menor en la otra. En general, es
necesario seleccionar tantas longitudes de onda analíticas como componentes
hay en la mezcla.
La próxima etapa en el análisis consiste en trazar las representaciones de la
ley de Beer, utilizando soluciones de las sustancias puras para cada
compuesto a cada longitud de onda. Así se obtienen cuatro gráficas de la ley
de Beer, a partir de las cuales se calculan cuatro absortividades, simbolizadas

141
por a1p, a2p, a1q,a2q, donde el superíndices indica el compuesto y el subíndice,
la longitud de onda.
Ahora se puede analizar cualquier solución que contenga los compuestos P y
Q. Se mide la absorbancia de la solución a las longitudes de onda 1 y 2. Se
considera que la absorbancia de una mezcla es igual a la suma de las
absorbancias de los componentes de la mezcla. Por tanto, si A 1 y A2 son las
absorbancias de la mezcla a las longitudes de onda 1 y 2,

A1= A1P + A1q (2)


A2= A2p + A2q (3)

Se pueden reemplazar las absorbancias de los segundos miembros de las


ecuaciones (2) y (3), por las correspondientes expresiones de la ley de Beer;
así, A1p = a1pbC1p, etc.

A1= a1pbC1p + a1qbC1q (4)

A2= a2pbC2p + a2qbC2q (5)

Las ecuaciones (4) y (5), constituyen un sistema de dos ecuaciones con dos
incógnitas, Cp y Cq, fácil de resolver. Cabe extender esta descripción del
análisis de mezclas a aquellas que tengan más de dos componentes si los
espectros de absorción son lo suficientemente distintos.

Desviaciones de la ley de Beer

 De origen químico. En algunos casos se observa que la representación de


la ley de Beer no es una recta sino que presenta cierta curvatura. Los
equilibrios de asociación y disociación son las causas usuales de estas
desviaciones.

142
 De naturaleza instrumental. Las lámparas de deuterio o tungsteno, las
cuales emiten radiación continua ultravioleta-visible, son empleadas como
fuente de luz de espectrofotómetros. El monocromador selecciona un haz
de radiación de longitud de onda dada por medio de un elemento
dispersante (prisma o red de difracción) y una rendija. Sin embargo, la
banda de radiación puede no ser verdaderamente monocromática, y la luz
emitida puede contener luz de longitud de onda cercana a la seleccionada.
Por tanto, se debe considerar que, sobre la muestra incide un intervalo
espectral de anchura finita ().
Diferentes  dan distintas absorbancias para una misma muestra, pues la
absortividad depende de la longitud de onda y del  . La absortividad
observada difiere de la verdadera y son posibles desviaciones en el trazado
de la ley de Beer.
Se suele minimizar este efecto estableciendo la  de lectura a la máx,
máximo de absorción, ya que a esta longitud de onda, la absortividad no
cambia demasiado con la longitud de onda excepto que la banda de
absorción sea extremadamente aguda.

 Otra causa de desviaciones es la luz extraña, que es radiación espúrea,


procedente de fuentes incontroladas, tales como orificios del alojamiento del
compartimento de la cubeta. Es radiación que incide sobre el detector sin
pasar por la muestra. Para absorbancias bajas, una pequeña cantidad de
luz externa inabsorbida producirá un error pequeño, pero a absorbancias
muy altas se produce un error negativo mayor (la absorbancia leída será
menor pues la transmitancia resultante es mayor ya que se suma a la luz
transmitida por la muestra, la luz espúrea). Es decir, que este efecto origina
una desviación negativa en el trazado de la ley de Beer.

Espectrofotómetros de absorción ultravioleta y visible


Los componentes básicos de un espectrofotómetro son: la fuente de luz, el
selector de longitudes de onda, el compartimento de la muestra, el detector de
radiación y el sistema de procesamiento y dispositivo de lectura de las señales.

143
En la región ultravioleta se emplean lámparas de deuterio (160-375 nm) y en el
visible lámparas de filamento de tungsteno (350 – 2500nm), como fuentes de
luz continua.
En referencia al selector de longitudes de onda, para la mayoría de los análisis
espectroscópicos se necesita una radiación constituida por un grupo limitado y
continuo de longitudes de onda estrechas denominado banda. Existen dos
clases de selectores: los filtros y los monocromadores. Los primeros pueden
ser filtros de absorción, que se limitan a la región visible, o de interferencia que
operan en las regiones UV-VIS e infrarroja (IR). En cuanto a los
monocromadores están diseñados para realizar barridos espectrales, utilizan
rendijas, lentes, espejos, ventanas y prismas o redes de difracción, constituyen
los elementos dispersantes que permiten seleccionar luz de una determinada
longitud de onda, en realidad en bandas estrechas de longitudes de onda,
como ya hemos mencionado.
Las celdas o cubetas que contienen la muestra deben ser transparentes a la
radiación, por lo que se emplean cubetas de cuarzo o sílice fundida en el UV y
de vidrio en el visible.
Para detectar la intensidad de luz transmitida por la muestra se emplean
dispositivos electrónicos sensibilizadores o fototubos y tubos multiplicadores
que convierten la energía radiante en una señal eléctrica. Pueden ser
detectores fotoeléctricos, llamados también cuánticos o detectores caloríficos.
Por último la señal del detector es amplificada mediante un dispositivo
electrónico con el cual se obtiene una lectura de transmitancia o de
absorbancia. Los instrumentos modernos incorporan distintos tipos de
dispositivos de lectura, algunos digitales, escalas potenciométricas,
registradores y tubos de rayos catódicos.
En general los espectrofotómetros pueden ser de simple o de doble haz. Los
primeros utilizan un prisma o red de difracción y son de alta precisión, en ellos
la muestra y la referencia deben ser interpuestas manualmente en el haz de
luz. En cambio en los de doble haz la radiación del monocromador es dividida
en dos, por un espejo rotatorio, mientras que un haz atraviesa la muestra el
otro lo hace por la referencia y luego son recombinados en el foco del detector.

144
Calibración de los espectrofotómetros

El objetivo de calibrar un espectrofotómetro es asegurar que el mismo funciona


totalmente bajo control y proporcionará, de forma consistente y repetitiva,
lecturas correctas de absorbancia a determinadas longitudes de onda.
Los parámetros a estudiar son los siguientes:

A. Comprobación de las absorbancias


(exactitud fotométrica)
1º) Preparar una solución de dicromato potásico (R)
de la siguiente manera: secar el dicromato, calidad
estándar, a 130ºC hasta peso constante. Pesar
aproximadamente y exactamente, 60 mg; disolver y
llevar a 1000 ml con ácido sulfúrico 0,005 M.
2º) Determinar la absorbancia de dicha solución en cubeta de 1cm de paso
óptico, utilizando ácido sulfúrico 0,005 M como blanco, a 235; 257; 313 y 350
nm.
3º) Calcular para cada longitud de onda la absortividad específica, mediante la
expresión:
1% A(  )  10
A 1cm 
C
4º) La tolerancia de A11cm
%
a cada longitud de onda se indican en la siguiente

tabla:

Longitud de onda
Tolerancia
 (nm)

235 122,9- 126,2

257 142,4 – 145,7

313 47,0 – 50,3

350 104,9- 108,2

145
B. Comprobación de la luz espúrea
1º) Preparar una solución de cloruro de potasio al
1,2% p/v en agua destilada.
2º) Determinar su absorbancia en cubeta de 1 cm, a
200 nm  2, utilizando agua destilada como blanco.
La absorbancia leída deberá ser mayor a 2.
B. Celdas
Se determina la absorbancia de un solvente (Etanol 96º), utilizando dos celdas
distintas, a 285 nm. Las lecturas deben tener igual valor. De lo contrario debe
aplicarse un factor de corrección al intercambiar las celdas.
Tolerancia  0,005 cm en el paso óptico.
C. Solventes
Cuando se mide la Absorbancia del solvente de trabajo a una  determinada, la
Absorbancia de la celda de referencia y su contenido no debe ser mayor a 0,4 y
es preferible que sea menor a 0,2 cuando se mide con referencia al aire.
Absorbancia solvente de trabajo ()  0,4 (referencia aire)
D. Deriva
Medir la absorbancia sin celda a lo largo del tiempo, durante 30 minutos en el
rango de 200 a 700 nm. Elegir tres . Calcular la diferencia de absorbancia
entre 0 y 30 minutos a cada  y multiplicar por 2, para obtener la deriva.
Deriva ()= (A()30 min - A()0 min) x 2
Especificación = 0,0003 A/ hora

Otros ensayos:
Verificación de la escala de longitud de
onda: existen diversas formas de
verificarla, una de ellas consiste en medir
los máximos de absorbancia de una
solución estándar de perclorato de holmio
a 214,15; 287,15; 361,50 y 536,30 nm.

146
Prueba de resolución: se prepara una
solución al 0.02% p/v de tolueno en
hexano. La relación de picos a 269 nm y
266 nm debe ser mayor a 1.5.

Campos de aplicación

Las aplicaciones de los métodos cuantitativos de absorción ultravioleta/visible


son numerosas y abarcan todos los campos en que se demanda información
química cuantitativa.
En la mayor parte de los análisis espectrofotométricos cuantitativos se emplean
medidas realizadas en las regiones ultravioleta y visible del espectro
electromagnético. El compuesto a ensayar debe tener absorción de suficiente
intensidad para tener utilidad en análisis, y la muestra no debe contener
sustancias interferentes.
Una de las ventajas de la espectroscopía de absorción es su especificidad, o
ausencia de interferencias. Incluso en aquellos casos en que las bandas de
absorción se interfieren parcialmente, es posible superar dicha interferencia ya
sea provocando un desplazamiento del espectro de absorción del compuesto a
cuantificar hacia una zona libre de bandas interferentes por medio de una
variación de pH, o bien se puede recurrir a una técnica especial, por ejemplo la
espectroscopía derivativa.
Otra forma de desplazar el espectro de absorción de un compuesto es por
conversión en la región visible, convirtiéndose entonces una sustancia incolora
en un derivado coloreado. Esta técnica se denomina: análisis colorimétrico.
Existen técnicas generales de análisis colorimétrico para los distintos grupos
funcionales.
Es muy importante para un análisis correcto, determinar con exactitud las
condiciones en que se realiza el método; por ejemplo: solvente, pH, tiempo de

147
reacción, concentración de la solución de lectura, y cualquier variable que
puede afectar o modificar la absorbancia de la sustancia analizada.

Espectroscopía Derivativa

La espectroscopía derivativa es una técnica analítica moderna de gran utilidad


para extraer información cualitativa y cuantitativa a partir de espectros
compuestos por bandas sin resolver, utilizando la primera derivada o derivadas
de órdenes superiores, de la absorbancia con respecto a la longitud de onda.
La técnica enfatiza características sutiles del espectro, presentándolas de una
forma distinta y visualmente accesible, permitiendo la resolución de muestras
multicomponentes y reduciendo el efecto de interferencias, ya que permite
aumentar la detectabilidad, sensibilidad y especificidad en dichos análisis.
Comparada con la espectroscopía convencional posee un gran valor ya que
permite eliminar interferencias sin recurrir a técnicas separativas, más
complejas y costosas. Ha encontrado amplia aplicación en muchos campos
analíticos, particularmente en las ciencias farmacéuticas y bioquímicas ya que
mantiene todas las leyes de la espectroscopía clásica (por ejemplo, la
dependencia lineal del valor derivado respecto de la concentración de analito y
la ley de aditividad).
Se expresa:

dA/d Para la primera derivada;

d2A/d2 Para la segunda derivada

dnA/dn Para una derivada de orden n de una función original A=f()

Para una aplicación cuantitativa:


( dnA/dn ) = ( dn/dn ) b C

148
Figura 2. Espectro de absorción de orden cero
y de segundo orden de una sustancia determinada

Los picos y valles de un espectro de orden (n-1), se transforman en ceros en el


espectro de orden (n), mientras que por otra parte los puntos de inflexión de un
espectro de orden (n-1) se transforman en máximos y mínimos del espectro de
orden (n). Los espectros derivados conducen por lo general a perfiles de
bandas características, donde son observados sustanciales cambios en los
gradientes y curvaturas, así como un comportamiento bipolar de los mismos.
Por todo esto son utilizados ampliamente como herramienta de identificación
de principios activos, además de la aplicación cuantitativa.
En estos métodos la señal se denomina “amplitud” o simplemente “derivada”,
en lugar de absorción y se puede medir considerando la distancia “cero-pico”
(Z), “pico-pico” (P1 y P2) o por el método de la tangente (T) entre dos picos del
mismo signo.

Figura 3. Distintas alternativas de medición de la amplitud de un espectro derivado

149
Una propiedad importante de los procesos derivativos es que las bandas
anchas tienden a enangostarse o hacerse agudas cuando se incrementa el
orden de la derivada, debido a que la amplitud de una banda es inversamente
proporcional al ancho de la banda original, es decir a la banda de orden cero
elevado al orden n de la derivada. Por lo tanto, cuanto mayor sea el orden de la
derivada, más angosta será la banda del espectro derivado, como se puede
observar en la siguiente figura.

Figura 4. Derivadas de orden creciente, hasta la cuarta derivada, de una sustancia

Los métodos por espectroscopía derivativa son rápidos, simples, de baja


contaminación ambiental y económicos comparados con los métodos
cromatográficos, como el HPLC, por lo que pueden ser utilizados como una
excelente alternativa en análisis rutinarios de control de calidad de
medicamentos, así como en estudios de equivalencia farmacéutica y en
algunos casos como métodos indicativos de estabilidad o para la determinación
de productos de descomposición. Estos métodos presentan capacidad para
resolver muestras de multicomponentes presentes en medicamentos y así
eliminar las interferencias existentes, ya sea de alguno de sus otros
componentes activos o de los propios excipientes que contenga la formulación
(técnica llamada de los “ceros cruzados”). Esta técnica consiste en medir la
amplitud de un componente en una mezcla, mientras los otros no dan señal a
la longitud de onda de trabajo y en ese orden de derivada y luego repetir el

150
procedimiento pero a la inversa, es decir, que habrá que determinar tantos
“ceros” como componentes tenga la muestra.
También se utiliza este recurso analítico para cuantificar principios activos que
se encuentran en bajas dosis en una especialidad o que presentan espectros
de absorción con bandas no bien definidas, ya que este método permite
transformar los suaves cambios de pendientes de un espectro directo en
bandas positivas o negativas más evidentes en el espectro derivado.
Cuando se desea desarrollar un método por espectroscopía derivativa, en
primer lugar habrá que optimizar condiciones de trabajo como: elección del
solvente de trabajo; orden de derivatización y longitud de onda de lectura.
Posteriormente deberá ser validado, para ello se realizan las siguientes
comprobaciones previas:
 No interacción de las drogas activas en la mezcla (para el caso de
multicomponentes), para lo cual se debe verificar que la suma de las
absorbancias a las distintas longitudes de onda, para el espectro de orden
cero, concuerde con las de la mezcla.
 Comprobación de los “ceros cruzados”: la señal obtenida (amplitud) en el
cero de cada componente, a un determinado orden de derivada y a una
determinada longitud de onda, debe ser función únicamente de la amplitud
del otro componente y viceversa. Es decir, que la amplitud de la mezcla en
el cero cruzado, será función solamente de uno de ellos, aquél que dé señal
a esa longitud de onda en el espectro derivado. Para demostrar esta
propiedad se debe trabajar con mezclas binarias de concentración
constante del componente que da señal y concentraciones crecientes del de
amplitud cero.
Estos tres requisitos que habrá que verificar son específicos de los métodos
derivativos, además de ellos se deberá proceder a calcular los habituales
parámetros de validación como linealidad, especificidad, precisión, exactitud,
límite de detección, de cuantificación y robustez.
En general, los métodos para dar derivadas espectrales pueden ser: métodos
ópticos, que operan sobre la radiación del mismo haz y métodos electrónicos o
digitales, que actúan a la salida del detector fotométrico.

151
Espectroscopía Infrarroja

La espectroscopía infrarroja (IR) es de gran importancia en análisis de


medicamentos porque puede aplicarse como técnica analítica cualitativa y
cuantitativa, siendo la primera la de mayor aplicación. Puede detectar grupos
funcionales cuya presencia sería imposible de determinar por ensayos
químicos convencionales.
El espectro IR de una sustancia es característico de ella, por lo tanto la técnica
de IR resulta útil para determinar la identidad de una sustancia.

T
%

T
%

Figura 5. Espectros IR típicos

La región del IR se encuentra entre 0,70 – 200 µ que equivale a 700 – 200.000
nm y si lo expresamos en número de onda, que es la recíproca de la longitud
de onda expresada en cm, sería entre 4000 – 700 cm-1. A su vez esta región
se divide en la región de frecuencias de grupo, entre 4000 – 1300 cm-1 y de las
huellas digitales entre 1300 – 700 cm-1. En esta región del espectro, pequeñas
diferencias en la estructura y la constitución de las moléculas originan cambios
importantes en la distribución de los picos de absorción. Como consecuencia,
la estrecha correspondencia entre dos espectros en esta región constituye una
evidencia de la identidad de los compuestos que producen los espectros.

152
Figura 6. Frecuencia de grupo y región de huella digital del espectro IR medio

Las transiciones que se producen en el IR se deben a vibraciones de grupos de


átomos, las que se originan en la región de las huellas digitales son
características de una determinada sustancia. Las vibraciones características
de átomos unidos covalentemente se clasifican en dos tipos, vibraciones de
tensión, valencia o estiramiento, que suponen un cambio continuo en la
distancia interatómica a lo largo del eje del enlace entre dos átomos, que a su
vez pueden ser simétricas o asimétricas. Y por otro lado, vibraciones de flexión
o deformación, que corresponden a cambios en el ángulo de enlace y que
pueden ser de tijereteo, balanceo, aleteo y torsión, en el plano o fuera del
plano. No todas las vibraciones serán activas en IR, sólo aquellas en las que se
cambie el momento dipolar permanente de la molécula, como consecuencia de
su movimiento de vibración o de rotación.

Figura 7. Tipos de vibraciones moleculares

153
Determinados grupos químicos dan bandas de vibración características,
independientemente de la molécula a la que pertenezcan. El rango de números
de onda en el que aparecen esas bandas se ve afectado por factores inter e
intramoleculares, como por ejemplo la masa atómica de los grupos adyacentes,
el acoplamiento mecánico entre grupos similares, la formación de puentes de
hidrógeno, simetría, electronegatividad, conjugación, etc.
Los espectrofotómetros IR se basan en los mismos principios y diseños ópticos
que los espectrofotómetros UV-VIS, excepto que en los instrumentos de IR el
compartimento de la muestra y de la referencia siempre se colocan entre la
fuente y el monocromador. Por otra parte los materiales de la óptica, prismas,
ventanas, celdas, etc., deben ser de sales transparentes a la radiación IR,
como son los halogenuros de metales alcalinos, especialmente BrK y ClNa.
La mayoría de los instrumentos modernos utilizan un microordenador con un
software capaz de presentar la señal de salida en una variedad de formatos,
tales como transmitancia vs. longitud de onda y absorbancia vs. número de
onda o longitud de onda. La preferencia por la escala lineal de número de onda
se debe a la proporcionalidad directa que hay entre esta magnitud y la energía
o la frecuencia.
En la actualidad los equipos más modernos trabajan con el sistema de
transformadas de Fourier que utiliza una técnica interferométrica, donde se
utiliza un interferómetro en lugar de un dispositivo dispersante y un software
para procesar los datos espectrales. Estos equipos permiten una mejor
relación señal/ruido ya que la luz no debe pasar por un monocromador, se
miden todas las frecuencias a la vez, lo que da mucha mayor rapidez, poseen
elevada exactitud y reproducibilidad en la determinación de frecuencias y
presentan una alta resolución, de menos de 0,1cm -1 y los espectros pasan
necesariamente por una computadora lo que facilita el análisis y manejo
espectral.
En IR es muy importante el método que se utilice para preparar la muestra. A
diferencia del UV-VIS donde en la mayoría de los casos las muestras se
obtienen a partir de disoluciones diluidas del analito, en IR no es sencillo repetir

154
esta práctica debido a que no existen buenos disolventes que sean
transparentes en toda la región espectral.
En general podemos prepararlas de tres maneras distintas: en fase sólida, en
fase líquida y en fase gaseosa.

Fase sólida. Las muestras se obtienen dispersando el analito en una matriz


líquida o sólida. Estas técnicas requieren que el tamaño de partícula del sólido
suspendido sea menor que la longitud de onda del haz IR, en caso contrario se
pierde una parte de la radiación por dispersión.
Uno de los métodos utilizados consiste en triturar de 2-5 mg de una muestra
finamente pulverizada (tamaño de partícula < 2µm) y suspenderlos en unas
pocas gotas de un aceite pesado de un hidrocarburo (Nujol). Si es probable
que interfieran las bandas del hidrocarburo se puede utilizar Fluorolobe, un
polímero halogenado, donde los Hidrógenos se han sustituido por Flúor. En
cualquiera de los dos casos la muestra resultante se examina luego como una
película delgada entre dos placas planas de sal (ClNa). Esta preparación de la
muestra es la recomendada para polimorfos.
Otra forma de preparar una muestra en fase sólida es partiendo de un
miligramo de muestra finamente triturada que se mezcla con unos 100 mg de
bromuro de potasio en polvo desecado. La mezcla se efectúa en un mortero y
luego se comprime en un instrumento especial a una presión de 700-1000
Kg/cm2, eliminando el aire ocluido mediante vacío, para obtener un disco muy
delgado y transparente, luego este disco o comprimido se coloca en el haz del
instrumento en un soporte adecuado.

Fase líquida. Si la muestra es líquida de por sí, es decir se trata de un líquido


puro, se coloca una película muy delgada de dicho líquido entre dos placas de
ClNa que se mantienen unidas por capilaridad y luego se colocan en la
trayectoria del haz. Si la muestra es sólida hay que disolverla en un disolvente
adecuado, como por ejemplo cloroformo, disulfuro de carbono o tetracloruro de
carbono, aunque es evidente que no existe un solo disolvente que sea
transparente en toda la región del IR. El agua y los alcoholes prácticamente no

155
se utilizan, no solo porque absorben intensamente, sino porque atacan a los
haluros de metal alcalino de las cubetas. Las cubetas suelen ser muy
estrechas, es decir con caminos ópticos muy cortos, frecuentemente son
desmontables y para llenarlas o vaciarlas se utilizan jeringas hipodérmicas.

Figura 8. Vista extendida de una celda desmontable para muestras líquidas

Fase gaseosa. El espectro de un líquido de bajo punto de ebullición o de un


gas, se puede obtener expandiendo la muestra en una cubeta en la que se ha
hecho vacío. Existen diversas cubetas con este fin, con caminos ópticos mucho
mayores (varios centímetros). No es un método de preparación de muestra
muy utilizado en la actualidad.

Preguntas Orientadoras

1. Qué entiende por espectroscopía de absorción? Para qué se utiliza?


2. En qué se basa el análisis espectroscópico cuantitativo?
3. Qué es la absortividad? Unidades. Dependencias.
4. Qué tipo de desviaciones puede sufrir la ley de Beer?
5. Cuáles son los componentes básicos de un espectrofotómetro UV-
VIS?
6. Cómo se cuantifican por UV multicomponentes?
7. Como se valida un método de Espectroscopía Derivativa?

156
8. Clasificación de las vibraciones al IR. Tipos de preparación de
muestra.

Test de Autoevaluación

1. De cuál de estos parámetros depende la Absortividad de un principio


activo en solución:
(a) Concentración
(b) Temperatura
(c) Intensidad de la radiación
(d) Longitud del camino óptico

2. En espectroscopía UV-VIS se trabaja a la máx porque:


(a) El método es más exacto
(b) El método es más preciso
(c) El método es más lineal
(d) El método es más sensible

3. De qué material son las cubetas de un espectrofotómetro ultravioleta:


(a) Vidrio
(b) Cloruro de sodio
(c) Cuarzo
(d) Polietileno

4. A qué técnica recurre para identificar un principio activo:


(a) Espectrofotometría Infrarroja (IR)
(b) Volumetría ácido-base
(c) Extracción líquido-líquido
(d) Potenciometría

5. Como se debe preparar una muestra de un polimorfo para analizarlo


por Espectroscopía Infrarrojo:

157
(a) En solución clorofórmica
(b) Como comprimido con Bromuro de potasio
(c) En suspensión con Nujol
(d) En solución acuosa

Bibliografía

1. Ministerio de Salud – ANMAT. Farmacopea Argentina. VII ed. (2003)


Buenos Aires.
2. Connors, K. A. (1980) Curso de Análisis Farmacéutico.
3. Skoog, D. A.; Leary, J.J. (1996) Analisis instrumental. Mc Graw-Hill, 4ª.
Ed.
4. Conley R. T. (1979) Espectroscopia infrarroja. Ed. Alhambra.
5. Pradeau D. (1998) Análisis Químicos Farmacéuticos de Medicamentos.
Uteha Noriega Editores.
6. Harris D.C. (2001) Análisis Químico Cuantitativo. Ed. Reverté S.A.

158
CAPITULO 7
MÉTODOS DE ANÁLISIS TÉRMICO
María Esperanza Ruiz

Introducción

La definición generalmente aceptada de análisis térmico (AT) abarca al grupo


de técnicas en las que se mide una propiedad física de un sistema (sustancia o
un material) en función de la temperatura, mientras se le somete a un programa
de temperatura controlado. La representación gráfica de la propiedad media en
función de la temperatura (o tiempo) se denomina termograma. Se pueden
distinguir más de una docena de métodos térmicos que difieren en las
propiedades medidas y en los programas de temperatura. Estos métodos
encuentran una amplia aplicación tanto en el control de calidad como en
investigación de productos farmacéuticos, arcillas y minerales, metales y
aleaciones, polímeros y plásticos.
Durante el calentamiento o enfriamiento de los materiales cambia su estructura,
estado o composición química. Estas transformaciones y reacciones están
íntimamente relacionadas con el intercambio de calor entre la muestra y la
atmósfera que la rodea. Los métodos térmicos proporcionan información sobre
estos intercambios de calor y, por consiguiente, sobre un gran número de
procesos físicos y fisicoquímicos que pueden tener lugar en la muestra:
absorción, adsorción, desorción, quimisorción, hidratación, deshidratación,
fusión, vaporización, sublimación, reacciones en estado sólido, transiciones
entre estados polimórficos o pseudo-polimórficos, reacciones gas-sólido,
descomposición, degradación, etcétera.
En el AT, el cambio de peso que sufre una muestra en función de la
temperatura constituye la base de la termogravimetría (TG), mientras que la
medida de los cambios de temperatura origina el análisis térmico diferencial
(ATD), y si en lugar de temperatura se miden cambios de energía la técnica se

159
denomina calorimetría diferencial de barrido (DSC, se retiene esta sigla en
inglés -differential scanning calorimetry- por ser la forma abreviada de nombrar
a esta técnica, aún en idioma español). Así por ejemplo, la TG indica el
momento y la magnitud de los cambios de peso de una muestra, mientras que
el ATD y el DSC permiten determinar si una reacción o cambio físico es
endotérmico o exotérmico, y, en el caso de DSC, también permite medir la
variación de calor.
Las tres técnicas mencionadas son las más empleadas dentro del AT aunque
no las únicas, ya que existen otra serie de propiedades que también pueden
ser medidas aunque las técnicas a las que dan lugar sean de aplicación más
limitada, como microscopía de platina caliente, análisis termomecánico, análisis
de evolución de gases, termosonimetría, termoelectrometría, termometrías
entálpicas, entre otras. Algunas de estas técnicas serán descriptas brevemente
al final de este capítulo.

Termogramas

Tanto para el ATD como para DSC, los picos observados en los termogramas
presentan varias temperaturas características que se emplean a la hora de
describirlos:
- La temperatura de inicio (Ti) y la temperatura extrapolada de inicio (Tie).
- La temperatura de pico (Tp)
- La temperatura de recuperación (Tr)
La Figura 1 muestra un esquema donde se pueden observar a qué parte de la
curva corresponden cada una de dichas temperaturas (su determinación es
igual tanto para picos endo como exotérmicos). La temperatura extrapolada de
inicio corresponde a la intersección entre la línea de base previa al pico y la
línea que surge de extrapolar el primer segmento del pico. En el caso de picos
anchos o poco definidos, resulta conveniente determinar la temperatura de pico
como la intersección entre las líneas extrapoladas de las curvas laterales de
dicho pico.

160
Exotérmico

Temp (ºC) Ti Tie Tp Tr

Figura 1. Típica curva de análisis térmico en la que se distinguen la temperatura de inicio (T i),
de inicio extrapolado (Tie), de pico (Tp) y de recuperación (Tr)

Al inicio de una corrida, la temperatura de los pocillos correspondientes a la


muestra y a la referencia pueden no ser idénticas, por lo que se suele observar
una pequeño escalón, tanto endo como exotérmico, al principio de los
termogramas, como se observa en la Figura 1.

Termogravimetría (TG)

En un análisis termogravimétrico se registra, de manera continua, la masa de


una muestra colocada en una atmósfera controlada, cuando:
- Es sometida a un incremento continuo y lineal de temperatura (experimento
dinámico)
- Es sometida a una temperatura dada, durante un cierto intervalo de tiempo
(experimento isotérmico)
La representación de la masa o del porcentaje de masa en función del tiempo o
de la temperatura genera el termograma o curva de descomposición térmica.
En dicha curva se distinguen tramos horizontales o mesetas, en las que el peso
permanece constante, y tramos donde una pendiente descendente indica la

161
velocidad de pérdida de peso.
Con frecuencia se usa una variante de esta técnica denominada
termogravimetría derivada (TGD), que consiste en derivar los termogramas en
función del tiempo o temperatura. Las curvas de TGD relacionan la velocidad
de pérdida de peso con la temperatura. En estas curvas, los valores de
ordenada cero (dP/dt = 0) corresponden a las mesetas del termograma original,
mientras que los máximos coinciden con los puntos de máxima pendiente de
los tramos descendentes. La TGD no es una técnica en sí misma ni aporta
información adicional a la TG, pero sí permite lograr una mayor resolución que
las curva de TG normal: las temperaturas/tiempos a los que se produce un
cambio de masa se observan como un escalón en TG mientras que en TGD se
ven como un máximo, lo que permite una determinación más exacta de su
valor, como así también un pequeño hombro en la curva de TGD es una
indicación de reacciones consecutivas que pueden pasar desapercibidas en la
curva original.
En la Figura 2 se representan estos dos tipos de termogramas, TG
convencional y diferencial.

TG
TGD
Peso de la muestra (P, mg)

dP/dt (mg/min)

0 100 200 300 400 500 600


Temperatura (ºC)

Figura 2. Termograma diferencial (curva inferior, eje derecho) y convencional (curva superior
punteada, eje izquierdo)

162
Descripción de equipo

Los instrumentos que permiten el registro continuo de las curvas


termograviméntricas, es decir, la variación del peso de la muestra en función de
la temperatura, se denominan termobalanzas. Suelen tener la posibilidad de
variar la velocidad de calefacción y de registro, como así también de controlar
la atmósfera en la que se encuentra la muestra (inerte, oxidante, reductora,
vacío o alta presión).
La Figura 3 presenta un esquema de una termobalanza, donde se pueden
observar sus tres partes principales: el horno, la balanza, y el sistema de
registro para la adquisición y visualización de datos.

Control de atmósfera

Horno Programador de la
temperatura

Muestra

Registrador

Sensor de
temperatura
Control de
Balanza
la balanza

Figura 3. Esquema de una termobalanza. El registrador, conectado a la termocupla que censa


la temperatura del horno y a la balanza, registra la temperatura y el peso de la muestra,
simultáneamente.

La balanza debe poseer exactitud, precisión y sensibilidad adecuadas, además


de buena estabilidad térmica y mecánica. Si bien el soporte de la muestra debe
estar situado en el horno, el resto de la balanza debe estar aislado
térmicamente del horno.
El horno es de material refractario, y contiene en su interior un crisol en el que

163
se coloca la muestra. El sistema calefactor eléctrico está controlado por un
microprocesador que permite un incremento o disminución lineal de la
temperatura de la muestra a velocidad regulable, desde aproximadamente cero
hasta valores tan elevados como 200 ºC/min. En el interior del horno la
temperatura debe ser lo más uniforme posible.
La temperatura registrada en un termograma es idealmente la temperatura real
de la muestra. Esta temperatura puede, en principio, obtenerse introduciendo
una termocupla pequeña en la muestra. Sin embargo, este procedimiento
puede generar la descomposición catalítica de la muestra, su contaminación
y/o errores de pesada. Es por ello que la temperatura se mide generalmente en
un punto ubicado lo más cerca posible del contenedor de la muestra.
Existen equipos capaces de proporcionar información cuantitativa sobre
muestras cuyas masas pueden llegar a los 100 g, si bien lo más común es
trabajar en un intervalo entre 5 y 20 mg. El intervalo de temperaturas de trabajo
también varía entre modelos, pero para análisis farmacéutico no se suele
trabajar por encima de los 350 - 400 ºC.
La preparación de una muestra implica colocar la cantidad inicial de muestra
sobre una cápsula de platino y luego colocar dicha cápsula dentro del horno. La
propia termobalanza se utiliza para pesar la masa inicial de muestra.

Análisis térmico diferencial (ATD)

El análisis térmico diferencial o ATD se basa en la medida de la diferencia de


temperatura (ΔT) entre la muestra y un material de referencia térmicamente
inerte, mientras ambos son sometidos al mismo programa de temperatura.
Mediante ATD se pueden detectar todos los procesos que involucren absorción
o liberación de calor por parte de la muestra, lo que permite seguir sus cambios
de fase o la existencia de determinadas reacciones químicas que tengan lugar
durante el proceso. El ATD suele ser considerado inferior respecto a la técnica
de DSC, debido a que sólo permite obtener información cualitativa de la
muestra. Sin embargo, es una herramienta muy utilizada en análisis

164
farmacéutico por su capacidad para proveer información muy útil, como por
ejemplo transiciones de fase.
El termograma de ATD consiste en la representación de ΔT en función de la
temperatura de calentamiento. En la Figura 4 se observa una curva de este
tipo: en las regiones planas de dicha curva, de pendiente cero, la energía
provista por el calentador del equipo es utilizada, tanto por la muestra como
por la referencia, para aumentar la temperatura, por lo que la temperatura en
ambos pocillos será la misma y ΔT = 0. Cuando sucede una transformación
endotérmica en la muestra (fusión por ejemplo), la energía aportada por el
horno se empleará en dicha fusión y no en aumentar la temperatura,
mientras que la referencia inerte sigue aumentado su temperatura junto con
el horno, resultando entonces en un aumento del ΔT (hacia valores
negativos, en este caso) entre ambos pocillos, hasta alcanzar un valor
mínimo donde ΔT es máximo. Luego, cuando la masa de material
absorbente de calor supera a la del material que se transforma, la muestra
comienza a aumentar su temperatura y el sistema retorna a la línea de base
cuando se iguala a la referencia. Si, por el contrario, sucede una
transformación exotérmica, el pico observado será en el sentido contrario.
Exotérmico

Oxidación

Transición Cristalización
Vítrea
△T
Endotérmico

Fusión Descomposición

Temperatura (ºC)

Figura 4. Termograma de ATD

El hecho de representar los procesos endotérmicos con picos hacia abajo y

165
exotérmicos hacia arriba es una convención, que si bien se respeta en la
mayoría de los casos no evita que puedan encontrarse termogramas a la
inversa.
En algunas ocasiones se observa que la línea base de gradiente de
temperaturas sufre un desplazamiento transitorio o permanente después del
pico, lo que indica un cambio en el calor específico de la muestra después de la
reacción.
En principio, se trata de una técnica cualitativa que indica la temperatura a la
cual tiene lugar el cambio energético en estudio y si el proceso es endotérmico
o exotérmico. Las curvas DTA son características de cada sustancia, aunque
están muy influidas por las condiciones experimentales a las que se obtienen.
El área del pico en una curva DTA depende de la masa de muestra utilizada,
de la entalpía de la reacción, y de una serie de factores adicionales como la
geometría y la conductividad térmica de la muestra. Además, existe una
constante de calibrado que depende de la temperatura, lo que significa que no
es posible convertir directamente áreas de picos en unidades de masa o de
energía a menos que se conozca el valor de esta constante para una
determinada temperatura, de lo que se deduce la importancia de un buen
calibrado en DTA.
Por lo tanto, con un adecuado calibrado es posible convertirla en
semicuantitativa y obtener información del calor involucrado en el proceso.

Descripción del equipo

Un aparato típico de ATD se puede ver esquemáticamente en la Figura 5, e


incluye un horno o sistema de calentamiento, con pocillos para la muestra y la
referencia, un controlador diferencial de temperatura con su sistema de
amplificación y registro asociado y los controladores de temperatura y
atmósfera del horno. Al funcionar, el equipo mide la diferencia de temperatura
entre la muestra y la referencia (ΔT) en función de la temperatura del horno o
temperatura programa (TP).

166
El soporte de la muestra consiste habitualmente en un bloque de material inerte
de alta conductividad térmica (acero inoxidable, aluminio, cobre, níquel,
etcétera) en el que se ubican los pocillos de muestra y referencia. Esta última
debe ser una sustancia tal que no sufra ningún cambio en el intervalo de
temperatura de trabajo: alúmina, carburo de silicio, cuentas de vidrio, etc.
El conjunto se ubica dentro del horno, que se calienta de forma programada a
medida que se registra su temperatura (TP). Dicho horno también permite
regular el tipo y presión del gas en contacto con la muestra. En contacto con
los pocillos se ubican termocuplas que censan en todo momento la temperatura
de muestra y referencia, y su diferencia (ΔT=T R-TM).
Diferentes modelos comerciales pueden varían en cuanto al rango de
temperatura de operación: son adecuados para el análisis farmacéutico
equipos de alta sensibilidad y con un rango aproximado de -150 a 500 ºC.
Otros equipos, por ejemplo aquellos que pueden alcanzar hasta 1600 ºC,
resultan más adecuados para el análisis de materiales inorgánicos.

Control de
atmósfera

Horno Programador de
temperatura

Muestra Referencia

Sensores de
temperatura
(termocuplas) Amplificador de
Registrador
señal

Figura 5. Esquema de un equipo de ATD.

Calorimetría diferencial de barrido (DSC)


La calorimetría diferencial de barrido (DSC, differential scanning calorimetry) es
un método directo y cuantitativo para la determinación del calor de

167
transformación y los cambios de entalpía. En esta técnica se realiza la medida
de la diferencia de cantidad de calor entre una sustancia y una referencia en
función de la temperatura de la muestra cuando ambas están sometidas a un
programa de temperatura controlado. Permite el estudio de todos aquellos
procesos en los que se produce una variación entálpica, por lo que es útil para
determinar calores específicos, puntos de ebullición y cristalización, pureza de
compuestos cristalinos, entalpías de reacción y determinación de otras
transiciones de primer y segundo orden.
Al igual que en ATD, la muestra y la referencia se alojan en dos pocillos
idénticos que se calientan según un programa predeterminado, pero la
diferencia fundamental con ATD es que en este caso el calentamiento de los
pocillos se realiza mediante resistencias independientes. Esto hace posible
emplear el principio de “balance nulo” de temperatura. Cuando en la muestra
se produce una transición térmica (un cambio físico o químico que da lugar a
una liberación o absorción de calor), se adiciona energía térmica bien sea a la
muestra o a la referencia, con objeto de mantener ambas a la misma
temperatura. Debido a que la energía térmica es exactamente equivalente en
magnitud a la energía absorbida o liberada en la transición, el balance de
energía proporciona una medición calorimétrica directa de la energía de la
transición.
La técnica por DSC es similar al ATD y suministra una información semejante.
La principal diferencia entre ambas radica en que en DSC en lugar de medir
una diferencia de temperaturas entre la muestra y una referencia térmicamente
inerte, se mide la energía que es necesaria suministrar a la muestra para
mantenerla a idéntica temperatura que la referencia.

Descripción del equipo

Existen dos modelos comerciales de equipos de DSC:


1) DSC por flujo de calor. Esta técnica es una modificación del método de

168
ATD, en la cual se mide la diferencia de cantidad de calor entre la muestra y la
referencia, cuando la temperatura de la muestra aumenta o disminuye
linealmente.
2) DSC por compensación de potencia. La muestra y el material de referencia
son calentados por calefactores separados, si bien sus temperaturas se
mantienen iguales mientras las temperaturas se aumentan o disminuyen
linealmente.
Con los dos métodos se obtienen resultados reproducibles y consistentes, y
ambos proporcionan la misma información, aunque actualmente es más
utilizado el de potencia compensada.
En la Figura 6 se muestra un esquema de un aparato de DSC de potencia
compensada. Los pocillos que contienen la muestra y la referencia están
equipados con un sensor (termocupla) para la medida de su temperatura, y una
resistencia de calentamiento independiente para cada una de ellos. Estas
resistencias mantienen ambos recipientes a una temperatura programada TP.
Las temperaturas instantáneas de cada pocillo (TM y TR) se miden y comparan
continuamente con el valor programado T P. El sistema trabaja de modo que la
energía suministrada en cada momento por cada resistencia de calentamiento,
es función de la diferencia entre las temperaturas de cada pocillo y la
temperatura programada, es decir:

Donde EM y ER son las energías eléctricas suministradas por las resistencias, y


WM y W R son constantes del sistema, que dependen de las características de
cada material, como su masa y capacidad calorífica. La diferencia de energía
(ΔE = EM – ER) requerida para mantener los dos pocillos a la temperatura
programada, es la cantidad que se representa en función de la temperatura (TP,
TM o TR), en el caso de experiencias dinámicas, o en función del tiempo a
temperatura constante, en el caso de experiencias isotérmicas.
La mayoría de los equipos permiten operar en atmósfera inerte o reactiva (tanto
oxidante como reductora), y algunos permiten incluso trabajar a altas

169
presiones. Los pocillos para muestra y referencia son generalmente de
aluminio, descartables, con una capacidad que varía desde 0,1 – 100 mg,
dependiendo de la densidad de la muestra. Normalmente estas cápsulas se
sellan con una tapa de aluminio para impedir que por problemas de dilatación o
descomposición de la muestra, ésta se proyecte fuera de la cápsula
contaminando el equipo.
En el pocillo de referencia se puede colocar una sustancia inerte, igual que en
ATD, o simplemente se puede dejar la cápsula vacía.

Control de atmósfera

Programador de Horno
temperatura (TP)

Disco Termoeléctrico Muestra Referencia

Termocuplas que
miden TM y TR
Termocuplas que
miden EM y ER
Sistema digital de
amplificación y
captura de datos

Registrador

Figura 6. Esquema de un aparato de DSC de potencia compensada.

Los termogramas obtenidos son similares a los de ATD, pero en este caso el
área bajo la curva de cada pico es proporcional a la energía requerida por la
muestra para compensar el proceso endotérmico, o por la sustancia de
referencia para igualar la energía emitida por la muestra cuando se trata de un
proceso exotérmico. Aunque también es necesario realizar una calibración, en
este caso es para determinar un factor de conversión eléctrico, que no depende
de las características de la muestra.
En un equipo DSC bien diseñado, el valor de esta constante es independiente
de la temperatura, lo cual explica el atractivo de esta técnica para
determinaciones calorimétricas cuantitativas. Es posible determinar

170
directamente los cambios de entalpía de una reacción a partir de la masa de la
muestra, la constante anterior y el área del pico correspondiente.

Calibración

El calor total correspondiente a la transformación producida en una muestra


(ΔHM) se determina a partir del termograma obtenido en el DSC. El coeficiente
de calibración, KH, es la constante de proporcionalidad que relaciona
directamente el área A, que hay entre el pico de una curva y la línea base con
el cambio de entalpía, es decir:

Para determinar KH es necesario utilizar un material con calores de fusión


perfectamente conocidos como muestra patrón. Con frecuencia se suelen
utilizar metales de alta pureza como patrones de calibración. Los metales más
utilizados para este fin son el Indio (Tfusión = 429,8 ºK, ΔHfusión = 28,4 J/g) y el
Zinc (Tfusión = 692,7 ºK, ΔHfusión = 6,2 J/g). Determinando el área del pico de la
muestra patrón se puede calcular KH. El valor de KH puede utilizarse entonces
para determinar valores de entalpía de cualquier otra sustancia ya que no
depende de la velocidad de calentamiento ni de la temperatura. Una vez
calculado su valor, debe ser comprobado de forma regular.
Cuando se hace un barrido a una velocidad determinada dT/dt, la temperatura
de la muestra aumenta (o desciende) linealmente, y el flujo de calor es:

171
Es decir, el flujo de calor es proporcional a la velocidad de calentamiento
(dT/dt) y a la capacidad calorífica (Cp = dH/dt). Por tanto las curvas de DSC
pueden representarse en función de la capacidad calorífica.

Principales aplicaciones de los métodos de AT

La Tabla 1 resume algunos de los usos generales de las técnicas de AT.

Aplicación TG ATD DSC


Punto de fusión - + +
Análisis de solvatos
Solvente ligado + + +
Solvente adsorbido + + +
Transición Vítrea - + +
Calores de transición - +? +
Determinación de pureza - +? +
Análisis de incompatibilidades + + +
Cinética de descomposición + + +
Transiciones polimórficas - + +

Tabla 1. Resumen de las principales aplicaciones con relevancia en el análisis farmacéutico de


los métodos de AT. (+): Aplicable, (-): No Aplicable, (+?): Potencialmente Aplicable.

A. Análisis cualitativo e identificación, ya que los termogramas son muy


característicos de un material.
B. Análisis cuantitativo. Mediante TG, los escalones correspondientes a las
pérdidas de peso pueden ser utilizados para determinar la cantidad de cada
componente en el material. Por otro lado, DSC puede emplearse como
técnica cuantitativa, por ejemplo en la determinación de la pureza de un
material.
Determinación de pureza: La determinación de la pureza de sustancias
orgánicas por DSC se basa en el hecho de que la presencia de impurezas, aún
en cantidades muy pequeñas, disminuye el punto de fusión a la vez que
provoca el ensanchamiento del rango de fusión. Un ejemplo de esto se muestra

172
en la Figura 7, donde se el efecto del nivel de pureza sobre el termograma de
DSC del principio activo Fenacetina.
Una vez conocida la constante KH del equipo a utilizar, se puede calcular la
pureza de un compuesto por aplicación de la ecuación de Van’t Hoff:

Donde Ts es la temperatura instantánea de la muestra en el rango de fusión y


T0 es la temperatura de fusión de la sustancia pura, ΔHm es la entalpía molar
de fusión del material puro (J/g), X2 es la fracción molar de impureza en la
muestra, R es la constante de los gases (8,314 J/mol.ºC), y Fs es la fracción de
fusión de la muestra a temperatura Ts. La fracción Fs se mide como As/A,
donde As es el área bajo la endoterma de fusión hasta la temperatura Ts y A es
el área total de la endoterma de fusión (ver Figura 7).
Tomando varios pares de valores (Ts, Fs) y graficando luego Ts vs. 1/Fs (gráfico
de Van’t Hoff) se obtiene una recta cuya pendiente corresponde a
[X2.R.(T0)2]/ΔHm. Por lo tanto, conociendo el valor de entalpía molar y la
temperatura de fusión para la sustancia pura, es posible conocer la fracción de
impureza en la sustancia que estamos analizando.

Eutéctico Fusión
As
Endotérmico

Pureza 94,86%
P f = 133,4 ºC

Pureza 98,34%
Pf = 135,1 ºC
Ts

90 100 110 120 130 140

Temperatura (ºC)

Figura 7. Termograma de DSC de la Fenacetina en dos grados de pureza. Ts es una


temperatura instantánea de la muestra en el rango de fusión y As es el área bajo la endoterma
de fusión hasta dicha temperatura Ts

173
C. Determinación de constantes térmicas:
Punto de fusión: una transición de fusión sólo es instantánea o
verdaderamente isotérmica en el caso de la situación ideal de materiales 100%
puros. De lo contrario, se obtiene un rango de temperaturas donde ocurre la
fusión, o “rango de fusión”, del que se suele informar la temperatura inicial, es
decir, aquella donde se comienza a detectar una fase líquida.
Punto de ebullición: muy pocos equipos comerciales son capaces de
determinar esta temperatura. Además, como los calores de vaporización son
mucho mayores a los de fusión, se requiere trabajar con tamaños de muestra
menores, lo que a su vez genera pérdida de sensibilidad. En cuanto al valor
informado, se toma la temperatura de inicio extrapolada como punto de
ebullición de la muestra.
Temperatura de descomposición: toda descomposición, endo o exotérmica,
se reflejará en un pico o señal tanto en DSC como en ATD. Por otro lado, si
además la descomposición implica pérdida de masa (CO 2, por ejemplo),
también podrá ser detectada mediante TG, y en dicho caso también podrá
conocerse la estequiometria de la reacción.
Calores específicos y calores de transición: la determinación de este tipo de
parámetros constituye uno de los usos principales de la técnica DSC.

D. Caracterización de materiales:
Temperatura de transición vítrea: muchos sólidos, cuando se calientan por
encima de su punto de fusión y luego se enfrían rápidamente por debajo del
mismo no cristalizan inmediatamente sino que forman un líquido sobre-
enfriado. Dependiendo de la velocidad de enfriamiento, la recristalización
puede ser retardada no sólo unos pocos grados centígrados sino incluso puede
modificarse la capacidad calorífica del líquido sobre-enfriado inhibiendo así la
posterior recristalización. Este fenómeno se conoce como “transición vítrea”, y
es el motivo por el cual siempre se deben emplear curvas de calentamiento (y
no de enfriamiento) para determinar el punto de fusión. Los cristales vítreos son
especialmente interesantes en el desarrollo farmacéutico debido a que por
tratarse de un estado sólido energéticamente desfavorable presentan mayores
velocidades de disolución.

174
Análisis de solvatos: los métodos de AT son muy útiles para el estudio de
materiales que poseen solvente incorporado en el estado sólido, siendo los
hidratos los más comunes. Al calentar, el solvente es liberado en una o varias
etapas, las que se registran como endotermas en ATD y DSC, o como
porciones descendentes en TG. A partir de ATD y DSC, se pueden calcular los
calores de desolvatación, mientras que por TG se puede conocer la
estequiometria del solvato.
En un trabajo realizado en 2012, Sorrenti et al. realizan la caracterización
fisicoquímica de las formas sólidas de Clorhidrato de Tacrina monohidrato
(TCR.H2O), un inhibidor reversible de la acetilcolinesterasa, activo a nivel del
sistema nervioso central, que se utiliza para el tratamiento de los síntomas
leves o moderados del Alzheimer. En una parte de dicho trabajo, los autores
estudian el efecto de la conservación de cristales de TCR.H2O bajo distintas
condiciones de humedad relativa (HR). La Figura 8 a continuación muestra los
termogramas obtenidos por TG y DSC.

Figura 8. Termogramas por DSC (gráficos superiores) y TG (inferiores) correspondientes a TCR anhidra
expuesta a 32% de Humedad Relativa (HR, izquierda) y a 100% de HR (derecha). En el caso de 32% HR,
los tiempos fueron t = 0 (a, a’), t = 10 días (b, b’), t = 20 días (c, c’), y t = 60 días (d, d’). En el caso de
100% de HR, los tiempos fueron t = 0 (e, e’), t = 1 h (f, f’), t = 24 hs (g, g’), t = 20 dIas (h, h’) y t = 40 días
(i, i’). Adaptada de Sorrenti et al., Solid-state characterization of tacrine hydrochloride. J Pharm Biomed
Anal 63, 53. Copyright 2011. Con permiso de Elsevier.

175
La exposición de la forma anhidra de TCR (Figura 8, izquierda) a una HR 32%
a temperatura ambiente, resultó en la hidratación gradual de la fase sólida
anhidra hasta la completa transformación en la forma de monohidrato. Dicho
monohidrato se caracteriza por un primer pico endotérmico de pérdida de
solvente en el intervalo 150-160 °C, seguido de la fusión de la forma anhidra
hasta descomposición a 290 °C.
Por otro lado, cuando la misma forma anhidra fue sometida a una HR 100%, se
produjo la absorción de una mayor cantidad de agua, como se puede ver por
los dos picos endotérmicos en las curvas de DSC (Figura 8 superior, derecha)
correspondientes a dos pasos secuenciales de desolvatación en TG, típicos de
la forma TCR.2H2O (una primera eliminación cerca de 90 ºC y otra alrededor de
150 ºC, antes de la fusión con descomposición a 300 ºC). Más aún, la pérdida
total de masa por TG luego de 40 días a 100% HR se corresponde con la
estequiometria de la forma dihidrata, TCR.2H2O

Estudio de polímeros: el análisis de la química de polímeros constituye una


de las principales aplicaciones de los métodos de AT. Mediante ATD y DSC se
obtiene información de la fusión, recristalización y transiciones vítreas. Por
análisis de evolución de gases se puede conocer, por ejemplo, la estabilidad
térmica de los polímeros, mientras que por análisis termomecánico se pueden
estudiar fenómenos indetectables por otros métodos, como las transiciones
líquido-líquido. La TG, por su parte, proporciona información sobre los
mecanismos de descomposición de las preparaciones poliméricas. Además, los
modelos de descomposición son característicos de cada tipo de polímero y, en
algunos casos, pueden ser utilizados con finalidades de identificación. Todas
estas y otras aplicaciones del AT al estudio de polímeros no serán tratadas en
este capítulo, pero se puede encontrar extensa literatura sobre el tema.

E. Cambios estructurales, que tienen lugar en las transiciones sólido-sólido, y


que pueden ser endotérmicos o exotérmicos. Los picos correspondientes en
las curvas de ATD o DSC son generalmente reproducibles, considerándose
como la huella dactilar del elemento en estudio.

176
Transiciones polimórficas: El AT y los métodos calorimétricos ofrecen
grandes ventajas para el estudio del polimorfismo y pseudo-polimorfismo, que
es una parte importante de los estudios de preformulación. La distinción entre
el polimorfismo y pseudo-polimorfismo es fácil y el número de formas en las
mezclas puede deducirse por análisis combinado de DSC y TG.
En algunos casos se puede observar un pico endo o exotérmico en DSC
correspondiente a la transición sólido-sólido entre dos formas polimórficas, sin
pérdida de masa en TG. En otros casos, se pueden observar dos puntos de
fusión, el primero correspondiente al polimorfo de menor punto de fusión y el
segundo al de mayor punto de fusión, que se forma por recristalización del
líquido en la forma más estable (entre ambos picos aparece otro exotérmico
indicando el evento de recristalización). Por otro lado, en el caso de pseudo-
polimorfismo (hidratos o solvatos), éstos también pueden detectarse fácilmente
por AT, principalmente por TG combinada con DSC, ya que la desolvatación o
deshidratación constituyen evento endotérmicos.

F. Análisis de incompatibilidades

Incompatibilidades entre principios activos y excipientes: constituye uno


de los principales usos del AT en análisis farmacéutico, mediante el estudio de
interacciones en estado sólido realizando los termogramas de los componentes
solos y de mezclas binarias activo-excipiente.
Las proporciones de cada componente (principio activo:excipiente) en las
mezclas pueden variar, pero existen valores recomendados según la categoría
funcional de cada excipiente: 1:5 para diluyentes, 3:1 para aglutinantes o
disgregantes, 5:1 para lubricantes, 10:1 para colorantes, etc.
Una vez realizados los termogramas de los componentes solos y de las
mezclas binarias (se pueden hacer tanto en condiciones normales de trabajo
como en condiciones de estrés térmico), se analizan comparativamente los
resultados para detectar posibles interacciones. Cabe aclarar que, en caso de
observar una interacción, ésta no necesariamente implicará incompatibilidad,
sino que debe estudiarse luego por otros métodos (cromatográficos, por

177
ejemplo) el fundamento de dicha interacción (qué está pasando) para
finalmente decidir si te trata de una incompatibilidad o no.
En un trabajo muy interesante realizado en el año 2003 por Araújo et al., se
presenta el estudio de posibles interacciones entre el principio activo
antirretroviral Zidovudina (AZT) y varios excipientes mediante el uso de TG y
DSC. Las Figuras 9 y 10 muestran los termogramas por DSC.

Figura 9. Termogramas de DSC del principio activo AZT y los excipientes en estudio, obtenidos
bajo atmósfera dinámica de nitrógeno (50 ml/min) a una velocidad de calentamiento de 10
ºC/min. Adaptada de Araújo et al., Thermal analysis of the antiretroviral zidovudine (AZT) and
evaluation of the compatibility with excipients used in solid dosage forms. Int J Pharm 260, 303.
Copyright 2003. Con permiso de Elsevier.

178
Figura 10. Termogramas de DSC de mezclas binarias 1:1 de AZT más excipientes, obtenidos
bajo atmósfera dinámica de nitrógeno (50 ml/min) a una velocidad de calentamiento de 10
ºC/min. Adaptada de Araújo et al., Thermal analysis of the antiretroviral zidovudine (AZT) and
evaluation of the compatibility with excipients used in solid dosage forms. Int J Pharm 260, 303.
Copyright 2003. Con permiso de Elsevier.

En el caso de AZT, se observan dos picos principales: un primer pico


endotérmico, correspondiente a la fusión (120–124 ºC, Ti= 122,6 ºC; ΔH=123,6
J/g) y dos picos posteriores, correspondientes a la descomposición térmica. El
primero de ellos representa un evento exotérmico entre 180–250 ºC con un
elevado valor de entalpía (905 J/g), mientras que el segundo es un evento
endotérmico en el rango 250-355 ºC (ΔH=165 j/g).
Observando los gráficos anteriores, como así también los termogramas por TG
presentes en el trabajo original, los autores concluyen que sólo existe una
interacción significativa entre AZT y PEG600, ya que en la mezcla binaria de
ambos desaparece el pico correspondiente a la fusión del AZT y sólo se
observa el pico de fusión del PEG600 a 62 ºC.
Esto es un claro ejemplo de una interacción que no necesariamente implica
incompatibilidad, ya que si bien la desaparición del pico de fusión del fármaco
es indicativa de una interacción fuerte, la misma puede atribuirse a la disolución

179
del fármaco en el polímero fundido 62 ºC, lo que difícilmente se observaría en
las condiciones normales de uso del medicamento.

Otros métodos térmicos

La microscopía de platina caliente, también conocida como microscopía


termoelectrónica, se utiliza para estudiar mediante observación la naturaleza de
eventos exo o endotérmicos, ya que consiste en colocar el portaobjetos con la
muestra sobre una platina capaz de variar su temperatura en forma lineal y
programada. Una vez iniciado el programa de temperatura, se puede observar
directamente la muestra o grabar las imágenes con un software adecuado. Así,
es posible correlacionar los cambios que se detectan por TG, ATD y/o DSC con
las modificaciones de la muestra.
Por ejemplo, se puede observar la descomposición de una muestra con
producción de gas o la pérdida de agua de cristalización a partir de un hidrato
simplemente colocando cristales de la muestra en un aceite inerte (silicona, por
ejemplo) y observando su evolución a lo largo de un programa de temperatura.

El análisis termomecánico permite medir los cambios de dimensión que sufre


una muestra (tales como expansión o contracción) cuando es sometida a un
programa de temperatura, o en función del tiempo cuando se mantiene la
temperatura constante (experimento isotérmico).

El análisis de evolución de gases es una técnica que se utiliza para


identificar la naturaleza de los gases o vapores producidos durante una
descomposición térmica. Es una técnica altamente específica y muy costosa,
ya que requiere acoplar los equipos de DSC, ATD o TG a un espectrómetro de
masas o infrarrojo por transformada de Fourier (FT-IR).

La termosonometría consiste en medir el sonido producido durante el cambio


en materiales cristalinos sometidos a un programa de enfriamiento o

180
calentamiento. Dicho sonido puede ser producido por la propagación de
rajaduras en el cristal que se pueden originar por estrés térmico o por la
producción de gases o vapores (por ejemplo, pérdida de solvente de
cristalización). La cristalización a partir de un material fundido también puede
producir señales sonoras.
No se trata de una técnica cuantitativa, pero permite el estudio de fenómenos
que a veces son indetectables por DSC o ATD, y así caracterizar con mayor
detalle la naturaleza del material en estudio.

Las termometrías entálpicas se basan en registrar las variaciones de


temperatura de una solución de la muestra problema cuando la misma se
valora, en condiciones adiabáticas y en presencia de una termocupla, con un
reactivo adecuado. La Figura 11 (a y b) muestra las curvas típicas que se
obtienen según la reacción entre la muestra y el valorante sea endotérmica o
exotérmica, respectivamente.

A B
Temperatura (ºC)

Temperatura (ºC)

PE Vol. reactivo PE Vol. reactivo

Figura 11. Curvas termométricas entálpicas. a) Endotérmica. b) Exotérmica. PE: Punto de


equivalencia.

Antes de la adición de reactivo el gráfico es horizontal, y al comenzar la


reacción por adición del reactivo se produce un salto (endo o exotérmico) hasta

181
que se completa dicha reacción. El gasto de reactivo hasta el punto de
equivalencia permite conocer la concentración de la muestra problema.
Las termometrías entálpicas se han utilizado en la valoración de calcio en
presencia de magnesio, de resinas de intercambio iónico, de EDTA y de otras
sustancias formadores de complejos.

Otras técnicas tales como termooptometría (estudio de la variación de alguna


propiedad óptica de la muestra durante el tratamiento térmico),
termoelectrometría (estudio de la conductividad eléctrica en función de la
temperatura), termofotometría, termomagnetometría y análisis térmico de
emanaciones son procedimientos sumamente específicos y raramente usados
para el análisis farmacéutico, por lo que no serán descriptos aquí.

Preguntas Orientadoras

1. ¿En qué se basan todos los métodos de análisis térmico (AT)?


2. Describa el fundamento y principales características de una
termobalanza.
3. ¿Cuáles son las principales aplicaciones de la TG en el análisis
farmacéutico?
4. Fundamento y equipamiento de la técnica ATD.
5. Fundamento y equipamiento de la técnica por DSC.
6. ¿Cuál es la principal diferencia entre ATD y DSC?
7. Explica el fundamento del empleo de DSC como técnica cuantitativa,
y la manera de hacerlo (calibrado del equipo).
8. Enumera las principales constantes térmicas que pueden obtenerse
mediante AT, y cuál es la técnica de elección para cada una de ellas.
9. Si Ud. posee una sustancia que puede encontrarse tanto en forma
anhidra como mono o dihidrato, ¿qué técnica escogería para
establecer de qué forma se trata? Indique brevemente cómo se vería
el termograma en cada caso.

182
10. Uno de los principales usos del AT en la etapa de preformulación
consiste en el análisis de incompatibilidades. Describe una manera
de llevar a cabo dicho análisis, y cómo se interpretan los resultados.

Test de Autoevaluación

1. ¿Cuál de los siguientes fenómenos no podría ser estudiado por TG?


(a) Pérdida de solvente
(b) Descomposición con liberación de CO2
(c) Transición polimórfica sólido-sólido
(d) Hidratación del sólido

2. ¿Cuál es la principal diferencia instrumental entre ATD y DSC?


(a) El material que forma el horno
(b) El sistema programador de temperatura
(c) La manera de calentar los pocillos de muestra y referencia
(d) El material utilizado como referencia

3. Si un principio activo se deshidrata a T1, funde a T2 y se descompone


completamente a T3 (con producción de CO2), cómo cree Ud. que se
verá su termograma por ATD:
(a) Un pico endotérmico a T1, uno exotérmico a T2 y ninguna
señal a T3
(b) Un pico endotérmico a T1, otro endotérmico a T2 y exotérmico
a T3
(c) Un pico endotérmico a T1, otro endotérmico a T2, otro
exotérmico a T3 seguido por una caída de la línea de base
(d) Un pico endotérmico a T1, otro endotérmico a T2 y una caída
de la línea de base a partir T3

183
4. Para el mismo principio activo de la pregunta anterior, cómo cree Ud.
que se verá su termograma por TG:
(a) Tres escalones sucesivos descendentes a T1, T2 y T3
(b) Solamente un escalón descendente a T1
(c) Un escalón descendente a T1, nada a T2 y otro escalón
descendente a T3
(d) Ninguna de las anteriores

5. Al realizar un análisis de incompatibilidad entre un principio activo y


varios excipientes, Ud. encuentra que para la mayoría de las mezclas
binarias no se producen cambios en los termogramas, excepto con
un excipiente, con el que observa que no aparecen los picos
característicos del principio activo. ¿Qué medidas tomaría a
continuación?
(a) Descartaría ese excipiente
(b) Repetiría el análisis de incompatibilidad, tal vez en otra
condición de humedad relativa o de temperatura
(c) Repetiría el análisis de incompatibilidad, pero cambiando la
proporción principio activo:excipiente.
(d) Trataría de dilucidar el mecanismo de la interacción mediante
otras técnicas analíticas

Bibliografía

1. Wendlandt WW. (1986) Thermal analysis. John Wiley &Sons, 3rd ed:
London, 814 pp.
2. Ford JL, Timmins P. (1989) Pharmaceutical thermal analysis: techniques
and applications. Ellis Horwood, Chichester, 313 pp.
3. Swarbrick J, Boylan JC. Encyclopedia of pharmaceutical technology.
Volume 15 (1997) Thermal analysis of drugs and drug products to unit
processes in pharmacy: fundamentals. Marcel Dekker, New York, 446 pp.

184
4. Araújo AAS, Storpirtis S, Mercuri LP, Carvalho FMS, Filho MdS, Matos
JR. (2003) Thermal analysis of the antiretroviral zidovudine (AZT) and
evaluation of the compatibility with excipients used in solid dosage forms.
International Journal of Pharmaceutics 260: 303-314.
5. Sorrenti M, Catenacci L, Bruni G, Luppi B, Bigucci F, Bettinetti G. (2012)
Solid-state characterization of tacrine hydrochloride. Journal of Pharmaceutical
and Biomedical Analysis 63: 53-61.
6. Suitchmezian V, Jeß I, Näther C. (2006) Crystal structures and properties
of two new pseudopolymorphic modifications of the glucocorticoide
triamcinolone diacetate. Solid State Sciences 8: 1373-1379.
7. Giron D. (1986) Applications of thermal analysis in the pharmaceutical
industry. Journal of Pharmaceutical and Biomedical Analysis 4: 755-770.
8. Giron D. (1995) Thermal analysis and calorimetric methods in the
characterisation of polymorphs and solvates. Thermochimica Acta 248: 1-59.

185
CAPITULO 8
DETERMINACIÓN DE AGUA
Claudia Marano

Introducción

El agua merece especial atención porque usualmente se debe indicar el


contenido de humedad de una muestra analítica. En las muestras liquidas, el
agua puede considerarse como diluyente o como impureza.
Las sales de ácidos inorgánicos y orgánicos así como otros compuestos
cristalinos pueden retener agua de diferentes formas:
 Agua enlazada

 Agua adherida o libre

El agua libre (no enlazada) es humedad adsorbida en la superficie del sólido, y


el agua enlazada es agua de cristalización (agua de hidratación). Por
consiguiente, se tiene al agua libre como una impureza, mientras que el agua
enlazada, aunque en realidad es un diluyente, de hecho forma parte de la
estructura del cristal.

Determinación de agua por el método de Karl Fischer

La determinación de agua por el método de Karl Fischer se basa en la reacción


cuantitativa entre el agua y un reactivo constituido por dióxido de azufre y yodo
en presencia de metanol y una base orgánica como Piridina según la siguiente
ecuación:

186
Existen dos métodos diferentes basados en la reacción con el Yodo:
 Titulación volumétrica: El yodo se disuelve en el reactivo y el contenido de
agua es determinado midiendo la cantidad de yodo consumido como resultado
de la reacción con el agua. Según el procedimiento empleado puede ser:

 Titulación volumétrica directa

 Titulación Volumétrica por retorno. En la titulación por retorno se agrega


un exceso de reactivo, se espera un tiempo suficiente para que la reacción se
complete y se titula el exceso de reactivo con una solución estándar de agua
en metanol.

 Titulación culombimétrica: El yodo es producido por la electrólisis de un


reactivo de Karl Fischer que contiene el ion yoduro. El contenido de agua en
una muestra se puede determinar midiendo la cantidad de electricidad que
se requiere para producir yodo durante la titulación.

2I I2 + 2e
El sistema de producción de yodo se compone de un ánodo y un cátodo,
separados por un diafragma. Se determina la cantidad de electricidad, C =
intensidad de corriente (A) x tiempo (s), requerida para la producción de yodo
durante la titulación y se calcula el contenido de agua (%) en la muestra, por la
fórmula siguiente:
 C 
% H 2O    100
10.72  P 

C = Cantidad de electricidad requerida para la producción de yodo


10,72 = Cantidad de electricidad requerida para producir Iodo por 1 mg de agua
P = Peso de muestra.

187
La reacción con el agua se desarrolla en dos pasos, la primera reacción es
reversible y la piridina fuerza la posición del equilibrio hacia la derecha
combinándose con el IH producido. La piridina también incrementa la
estabilidad formando complejos de transferencia de carga con yodo y dióxido
de azufre del reactivo.
Pueden ocurrir numerosas reacciones secundarias, consumiendo reactante.
Las relaciones molares aproximadas en la preparación del reactivo de Karl
Fisher son:
1 I2 : 3 SO2 : 10 C5H5N
la fuerza del reactivo queda limitada a su contenido de yodo. La misma se
expresa en mg de agua equivalente a 1 ml de reactivo y decrece rápidamente
debido al consumo de yodo en las reacciones secundarias y deberá ser
valorado periódicamente.
El reactivo se estandariza con cantidades conocidas de agua o con estándares
primarios hidratos cristalinos (por ejemplo tartrato de sodio). Tales estándares
deben cumplir con algunos requisitos:
 Ser comercialmente asequibles en calidad de reactivo de grado puro y
poseer el contenido teórico de agua.

 Liberar cuantitativamente su agua por reacción con el reactivo de Karl


Fisher en solución metanólica y no experimentar reacciones colaterales con
el reactivo.

 Ser estables y no absorber humedad atmosférica en las condiciones


ordinarias de almacenaje de un laboratorio.

 Se ha de poder determinar con exactitud su contenido de agua con un


método independiente.

Dada la toxicidad de la piridina y el hecho de obtener mayor imprecisión en los


resultados (la piridina no se acopla perfectamente ya que debido a su débil
basicidad y su poca afinidad por el anión CH3SO3 - la velocidad de la reacción
es muy lenta y el punto final de la valoración inestable), en la actualidad es
remplazada por otras bases con mayor eficacia como por ejemplo el imidazol

188
que ha resultado ser la mejor base para la reacción de Karl Fisher ya que
asegura una valoración rápida y exacta.

CH3 OH + SO2 + RN RNH SO 3 CH 3

RNH SO 3 CH3 + H 2 O + I2 + 2RN RNH SO 4 CH 3 + 2(RNH)I

RN : Base
La segunda reacción es la reacción de óxido-reducción propiamente dicha. El
anión del ácido metilsulfónico es oxidado a metilsulfato y el iodo reducido a
yoduro. Esta reacción es instantánea y consume una molécula de agua por
molécula de yodo.
La primera ecuación produce un producto intermedio del dióxido de azufre este
último forma con el alcohol (habitualmente metanol) un éster, el anión del ácido
metilsulfónico CH3SO3- que es rápidamente neutralizado y estabilizado por la
base. Esta reacción determina e impone su velocidad a la reacción de Karl
Fisher. Es decir, es de gran importancia la base utilizada.
La reacción de Karl Fisher tiene un rango óptimo de pH entre 5-7 en el cual el
curso de la reacción es rápido y estequiométrico.
Las valoraciones volumétricas se utilizan preferentemente en la determinación
de grandes cantidades de agua 1-100 mg de agua.
La culombimétrica es un micro-método adecuado en determinaciones de 1 μg-
10 mg de agua.
Precauciones
 Es obligatorio que la bureta, la botella de almacenamiento y todas las
conexiones estén perfectamente secas, el agua que puede haber en dichos
lugares conduciría a resultados erróneos.

 El reactivo debe almacenarse en un sitio frío, protegido de la luz y la


humedad.

Estandarización del reactivo.


El reactivo de Karl Fischer preparado por alguno de los métodos existentes,
debe estandarizarse antes de cada uso, porque su actividad para la
determinación de agua cambia con el tiempo.

189
Para la determinación de contenidos de agua mayores al 1% el reactivo puede
estandarizarse con agua, exactamente pesada. El cálculo del Título del
Reactivo, correspondiente a la cantidad de agua, en mg por ml de reactivo, es
el siguiente
F = P/V
P: Cantidad de agua expresada en mg
V: volumen en ml de reactivo consumido en la titulación.
Para la determinación de agua menores al 1% el reactivo puede estandarizarse
con tartrato de sodio (C4H4Na2O6.2H2O). El cálculo del factor de equivalencia,
correspondiente a la cantidad de agua, en mg, por ml de reactivo, es el
siguiente:
F = 2(18,02/230,08)(P/V)
Peso Molecular de agua: 18,02
Peso Molecular del tartrato de sodio di hidratado: 230,08
P: Peso en mg del tartrato
V: volumen en ml de reactivo consumido en la titulación
Técnica
Adición del solvente: en el vaso de valoración se añaden 20-30 ml de solvente
(Ejemplo: metanol) dependiendo del tamaño de la muestra y de la celda, cerrar
la celda para evitar al máximo la entrada de agua.
Pre-valoración: Se utiliza para eliminar el agua del disolvente y la humedad
adherida dentro del recipiente.
Pesada de la muestra: El tamaño de la muestra depende de la cantidad de
agua que contenga, del volumen de la bureta, del título del reactivo y de la
exactitud deseada, es aconsejable utilizar la mitad del volumen de la bureta. ej:
con una equivalencia de 5 mg H2O/ml y una bureta de 20 ml una cantidad
óptima de muestra será la que contenga 50 mg de agua.
Valoración del agua: Introducida la muestra se debe valorar inmediatamente, la
velocidad de agregado del reactivo inicialmente es más rápida disminuyendo
cerca del punto final. Una determinación clara del punto final es tan importante
como la prevaloración.

190
Ensayo blanco: Este ensayo se realiza bajo las mismas condiciones que la
muestra.
Cálculos: Una vez alcanzado el punto final debe leerse en la bureta el volumen
de reactivo utilizado.
%H2O = (VxF/P)x100
dónde:
F: título del reactivo (mg H2O/ml)
V: volumen de reactivo
P: peso de muestra en gramos
Es necesario realizar una serie de valoraciones a las cuales se debe
determinar la media y su desviación estándar.
Indicación del punto final: Se puede localizar de diferentes maneras el punto
final de la valoración de Karl Fischer.
 La indicación visual ocurre con un cambio de color de amarillo a marrón-
rojizo (característico del primer exceso de reactivo luego del punto final).

 Indicación electrónica del punto final, para ello se emplean dos electrodos
de platino, a los cuales se aplica un potencial hasta que un galvanómetro
registra cero con los electrodos inmersos en la solución. Cuando se alcanza
el punto final, el primer pequeño exceso de yodo en la solución produce un
largo flujo de corriente, con lo que resulta una deflexión de las agujas del
galvanómetro. Esta forma de valoración se llama “ dead-stop ” porque se
valora la solución hasta que cambia la aguja del galvanómetro, no se toman
medidas precisas.

 La indicación fotométrica habitualmente se mide la absorbancia a 525 - 600


nm. Se traza una representación de la absorbancia en función del volumen
de valorante.

Antes del punto final la absorbancia permanece próxima a cero, luego del punto
final se incrementa linealmente con el volumen. La Intersección de las dos
líneas señala el punto final. La valoración fotométrica suministra mayor
sensibilidad y precisión que la lograda con la detección visual del punto final.

191
Interferencias:
Gran parte de los compuestos orgánicos no interfieren. Puede valorarse el
agua en presencia de ácidos, alcoholes, fenoles, éteres, hidrocarburos,
anhídridos, aminas, amidas y muchas otras sustancias.
Aquellas sustancias que consumen yodo perturban cuantitativamente, un
análisis por separado permitirá aplicar una corrección.
Los compuestos cabonílicos interfieren por formación de acetales y cetales con
el metanol, liberando agua en el proceso.
Los ácidos carboxílicos son capaces de esterificar con metanol, esta reacción
de condensación produce agua. El uso de piridina y dioxano como medio de
valoración limita las reacciones de esterificación.

Determinación de agua por destilación azeotrópica

Este método se basa en la destilación por arrastre con vapor de tolueno, del
agua contenida en la muestra de un producto bajo condiciones establecidas.
Los componentes de la mezcla azeotrópica son inmiscibles, el destilado
condensado se separa en dos capas.
Este método es claramente aplicable si la muestra no contiene otras sustancias
volátiles susceptibles de afectar al volumen aparente de agua en el colector.
El método de destilación con tolueno es adecuado para drogas crudas, muchos
ungüentos y otras mezclas complejas que no se pueden analizar por la
valoración de Karl Fischer.

Determinación de agua por secado en estufa

Quizás el método más sencillo para determinar el agua contenida en un sólido


sea el secado en estufa, a presión atmosférica, a 100-150°C, hasta que se
alcanza peso constante. La pérdida de peso de la muestra se atribuye a la
pérdida de agua. Para que este método sea válido, no debe haber sustancias

192
volátiles distintas del agua en la muestra, y ésta ser estable en las condiciones
de tratamiento del secado.
Se determina tanto el agua libre como enlazada. Es necesario buscar para
cada compuesto la temperatura apropiada y el período requerido de secado
para desalojar toda el agua. Algunos compuestos hidratados son muy
resistentes a la completa expulsión del agua por secado a la estufa.
Si la muestra es lábil al calor, también cabe someterla al secado a la estufa,
pero a presión reducida. Esto, naturalmente, tiene el efecto de disminuir el
punto de ebullición del agua, por lo que se utilizará una temperatura más baja
en el proceso.
Si el secado a la presión reducida a temperatura ambiente es suficiente para la
separación completa del agua, un desecador con vacío es el aparato más
sencillo para eliminar el agua de este tipo de muestras. Se coloca un desecante
en la parte inferior del desecador para absorber la humedad. Entre los mejores
desecantes se encuentran:
 Perclorato de magnesio (Dehydrita)

 Sulfato de calcio anhidro (drierita)

 Deutóxido de fósforo

Se ha de interponer un desecante (ej: acetona helada) entre el desecador y la


bomba para evitar el paso de agua dentro de la bomba o los vapores químicos
de la bomba de aceite dentro del desecador.
El proceso de secado con presión reducida cabe describirlo como una
aproximación al equilibrio, el cual se alcanza cuando la presión parcial del agua
es la misma en todo el sistema. Así en la etapa inicial de un secado por
desecación, la presión parcial del vapor de agua de la muestra es bastante
mayor que sobre el desecante. Por lo cual dejar enfriar una muestra desecada
en la estufa al prepararla para secarla es una fuente potencial de error. Si la
muestra está más seca que el desecante, el agua pasará del desecante a la
muestra; por esto se debe emplear un agente desecante eficaz.

193
Técnica.
Homogeneizar y pesar exactamente la muestra y, a menos que se especifique
de otro modo en la monografía correspondiente, llevar a cabo la determinación
sobre 1 o 2 g de muestra. Pesar un pesa-filtro seco y colocar la muestra en el
mismo. Distribuir la muestra lo más uniformemente posible. Tapar y colocar el
pesa-filtro en la cámara de secado. Secar la muestra a la temperatura y
durante el tiempo especificado en la monografía correspondiente.
Nota: la temperatura especificada en la monografía se considera dentro del
intervalo de ± 2°c del valor establecido.
Abrir la cámara de secado tapar el pesa-filtro y llevarlo a temperatura ambiente
en un desecador antes de pesar.
Para muestras contenidas en cápsulas, emplear el contenido de no menos de
cuatro unidades finamente pulverizadas.
Si la monografía correspondiente establece:
 Pérdida por secado mediante análisis termo gravimétrico, emplear una
termo balanza.

 Secado al vacío sobre un desecante o secado en un desecador, emplear un


desecador de vacío, una pistola de secado al vacío u otro aparato
apropiado de secado al vacío, teniendo las precauciones necesarias para
asegurar que el desecante se mantenga activo reemplazándolo
frecuentemente.

 Secado en un pesa-filtro con tapa provista de un capilar, emplear un pesa


filtro y un tubo equipado con una tapa provista de un capilar de un diámetro
de 225 ± 25 μm y mantener la cámara de calentamiento a una presión de 5
mmHg o menor. El pesa-filtro debe permanecer tapado durante toda la
determinación. Al finalizar el período de calentamiento, llenar la cámara de
calentamiento con aire seco, retirar el pesa-filtro y con la tapa colocada
dejarlo enfriar en un desecador antes de pesar.

194
Determinación práctica de agua en una materia prima

La forma de expresar el título de una materia prima para determinar si cumple


con las especificaciones de la Farmacopea es:

Sobre Droga Anhidra: SDA


Sobre Droga Desecada: SDD

Cuando un título está especificado como SDA nos indica que el contenido de
agua fue determinado por el método de Karl Fischer ya que por él determino
solamente el agua, ya sea libre o ligada.
Cuando el título está especificado como SDD nos indica que el método
empleado fue pérdida por secado, el mismo no solo determina agua si no
también sustancias volátiles a 105ºC. Cuando vamos a elaborar un
medicamento es importante conocer el título sobre droga tal cual (SDTC) esto
evitará dudas al momento de pesar.

Cómo se relacionan estas expresiones de títulos de la materia prima? Lo


veremos con dos ejemplos:

Ejemplo 1

Se realizó la valoración de la siguiente materia prima C6H8ClN7OHCl.2H2 (P.M.:


302,2), aplicando una volumetría ácido base en medio no acuoso.

Determinación del contenido de agua de la materia prima (impureza)


Se disuelven tres alícuotas de la materia prima (mp) en 10 ml de metanol y se
valora el contenido de agua con reactivo de Karl Fischer (RKF) de título 13,9
mg/ml. Se realiza un ensayo en blanco con 50 ml de metanol y se obtiene un
consumo de 0,45 ml de RKF.

195
Cantidad de
Volumen de Vol.RKF-Vol
Peso mp (g) Agua encontrada % de Agua
RKF (ml) blanco
(mg)
O,503 4,51 4,42 61,44 12,21
0,509 4,55 4,46 61,99 12,18
0,500 4,49 4,4 61,16 12,23

Valor medio 12,21


C.V .% 0,21

El volumen del blanco que debe restarse al volumen de reactivo gastado en


cada alícuota se calcula de la siguiente manera:

50 ml de metanol (consumieron) → 0,45 ml de RKF


10 ml de metanol (utilizado para la disolución de cada alícuota) → X= 0,09 ml de RKF

Con los ml de RKF corregido y el título de RKF determinamos los mg de H 2O


encontrados en cada alícuota y luego lo expreso como % de H2O.

0,503 g de muestra → 0,06144 g de H2O


100 g de muestra → x = 12,21 g de H2O =12,21% de H2O

Nota: Para expresar el resultado debo calcular el valor medio de mis tres
determinaciones y una medida de la desviación de los datos obtenidos
respecto del valor medio. (C.V %)

Valoración de la materia prima.

Procedimiento: Se disuelve cada una de las alícuotas en 100 ml de ácido


acético glacial, se agrega 10 ml de acetato de mercurio y se mezcla. Se
adicionan 4 gotas del indicador y se titula con ácido perclórico 0,1021N
(HClO4).
1 ml de ácido perclórico 0,1N es equivalente a 26,61 mg de C6H8ClN7OHCl

196
Vol. HClO4 Vol. HClO4 - Vol. g de mp
Peso mp (g) % sdtc
(ml) blanco (ml) encontrados
0,422 13,7 13,5 0,367 86,91
0,374 12,2 12 0,326 87,17
0,381 12,3 12,1 0,329 86,35
0,392 12,8 12,6 0,342 87,24
---- 0,2

Valor medio 86,92 %


C.V.% 0,46

% sdtc = V. N. P meq . 100 / P mtra.


V = Es el volumen corregido de HClO4 en ml gastado con cada alícuota.
N = La normalidad del reactivo titulante 0,1021
Pmeq = Peso mili equivalente de C6H8ClN7OHCl
Pmtra = Peso de cada alícuota
Nuestra materia prima tiene un título de 86,92 % sdtc y 12,21 % de H2O. Si
queremos saber si cumple con las exigencias de la monografía (98,0 – 100,0
% de C6H8ClN7OHCl expresado SDA), debemos expresar el título SDA.
En esta materia prima 12,21 % corresponde a agua y el 87,79% (100-12,21) es
p.a. C6H8ClN7OHCl más impurezas (polvo anhidro). Pero como el polvo anhidro
tiene una pureza de 86,92%, entonces lo que tengo de C 6H8ClN7OHCl
expresado SDA es 99,0 %
87,79g de polvo anhidro → 86,92g de C6H8ClN7OHCl
100g de polvo anhidro → x = 99,0 % (de C6H8ClN7OHCl) SDA
Una forma aproximada de determinarlo sería:
% de H2O + Titulo %SDTC = % SDA
12,21% + 86,92% = 99,13% SDA

Ejemplo 2
Se debe preparar 100 cápsulas conteniendo metoclopramida clorhidrato 10 mg
1 caps --------- 10 mg metoclopramida clorhidrato
100 caps ---------X= 1000 mg metoclopramida clorhidrato

197
En protocolo analítico de metoclopramida clorhidrato MP se informa:
Título 99,0 % SDA
% de agua: 5,13%
En este caso me interesa conocer el título SDTC:
100 g MP anhidro ………. 99,0 g metoclopramida clorhidrato
94,87 g MP anhidro …….. X= 93,92 g metoclopramida clorhidrato
93,92 % es ahora el título de metoclopramida clorhidrato SDTC
Necesito 1000 mg de metoclopramida clorhidrato.
93,92 mg metoclopramida clorhidrato ……… 100 mg polvo
1000 mg metoclopramida clorhidrato ………. X= 1064,73 mg MP
Se deberá pesar 1064,73 mg de MP para obtener 1000 de metoclopramida
clorhidrato.

Preguntas Orientadoras

1. Que entiende por agua libre y agua enlazada?


2. Como está formado el reactivo de Karl Fischer?
3. Que métodos de determinación de agua conoce? Explique
detalladamente
4. Se disolvieron 0,5404 g de agua en 50 ml de metanol. Se añadieron
5 ml de esta solución a 20 ml de metanol y valoraron con RKF,
consumiéndose 9,5 ml. Asimismo 25 ml del mismo metanol
requirieron 0,8 ml de reactivo. Calcúlese el título del reactivo de KF
5. Se disolvieron 0,2310 g de una muestra en 10 ml de metanol y se
valoró con el RKF del problema anterior .Se requirieron 2,4 ml de
reactivo para valorar el agua de la muestra. Cuál es el porcentaje de
agua que contenía la muestra?

Test de Autoevaluación

1. El reactivo de KF se estandariza con:


(a) Cantidades conocidas de alcohol

198
(b) Cantidades conocidas de agua
(c) Cantidades conocidas de tartrato de sodio

2. El punto final de la valoración con KF se puede detectar mediante:


(a) Cambio de color amarillo a marrón rojizo
(b) Por absorción a 425 nm
(c) Por absorción a 525-600 nm midiendo absorbancia versus
volumen de valorante

3. Las sustancias que interfieren en la valoración de KF son:


(a) Ácidos y fenoles
(b) Sustancias que consumen iodo cuantitativamente
(c) Grupos carbonilos por formación de acetales

4. La determinación de agua por secado en estufa a 105oC se utiliza


para:
(a) Sustancias lábiles a la temperatura
(b) Sustancias volátiles distintas al agua
(c) Para determinar tanto agua libre como enlazada

Bibliografía

1. Ministerio de Salud – ANMAT. Farmacopea Argentina. VII ed. (2003) Buenos


Aires.
2. Farmacopea de los Estados Unidos de América (USP 35) (2011) Rockville.
3. K.A.Connors (1980). Curso de Análisis Farmacéutico. 2da. Ed. 1980.
4. Pradeau D. (1998) Análisis Químicos Farmacéuticos de Medicamentos.
Uteha Noriega Editores.

199
CAPITULO 9
ANÁLISIS FUNCIONAL
Patricia Retaco

Introducción

Se llama Grupo Funcional al átomo o conjunto de átomos que presentan una


estructura y propiedades físico-químicas determinadas que caracterizan a los
compuestos orgánicos que los contienen.
Un alto porcentaje de principios activos presentes en medicamentos son
moléculas orgánicas formadas por una estructura C e H y de la sustitución de
estos átomos se obtienen los grupos funcionales o funciones químicas, y son
estos grupos funcionales quienes determinan las propiedades químicas y
farmacológicas en los fármacos.
Una vez reconocidos los grupos funcionales presentes en una molécula
orgánica y conociendo las reacciones químicas que ellos experimentan
posteriormente se podrá seleccionar el grupo funcional presente más
adecuado para realizar un análisis cuantitativo. Los Métodos de Análisis son
prácticos para comprobar la identidad de un medicamento. Ciertos compuestos
orgánicos son suficientemente ácidos o básicos por lo cual y bajo ciertas
condiciones, se pueden determinar por valoración directa con un titulante,
valorante o solución estandarizada.
A continuación se describirán algunos métodos de análisis para grupos
funcionales presentes en ingredientes activos farmacológicamente.

 Compuestos hidroxílicos

El comportamiento químico del grupo hidroxilo está marcadamente afectado


por la estructura del resto de la molécula.

200
Considerando su reactividad pueden dividirse en cuatro grandes grupos:
alcoholes, glicoles, enoles y fenoles.
Los alcoholes contienen un grupo OH enlazado a un átomo de C, y se pueden
clasificar en Alcoholes primarios, secundarios y terciarios. Los glicoles poseen
más de un grupo OH adyacentes. Los enoles son compuestos en lo que uno de
los átomos de hidrógeno unido a un carbono de un doble enlace es remplazado
por un grupo hidroxilo.
Los Fenoles contienen un grupo OH enlazado a un átomo de C en un anillo
aromático. Si bien los fenoles pueden parecerse a un alcohol, el anillo
bencénico altera las propiedades del grupo Hidroxilo.

Etanol Fenol Enol

Algunos fármacos en donde el grupo hidroxilo es esencial para la actividad:


haloperidol, morfina y esteroides (17 α-Etinilestradiol) entre otros.

Métodos de Análisis

1. Acilación con anhídrido acético

Fundamento
Los métodos de acilación se utilizan para alcoholes primarios y secundarios, en
presencia del reactivo acilante y bajo ciertas condiciones forman ésteres. La
reacción implica la sustitución del hidrógeno del hidroxilo por un grupo acilo.

R-OH + (R´CO)2O ↔ R´COOR + R´COOH

Para incrementar la velocidad de la reacción, se adicionan catalizadores a la


mezcla de reacción. Se pueden utilizar:

201
 Catalizadores nucleofílicos como la piridina que acelera la velocidad de
reacción con respecto a otros solventes. Se produce la formación de un
intermediario, el ion acil- piridinio (agente acilante).
 Catálisis ácida: con ácido perclórico y como solvente piridina.
 Adicionando ácido perclórico y con acetato de etilo. Este sistema está
sujeto a numerosas interferencias a causa de la alta reactividad del acetato
de etilo.
El mecanismo supone la formación del ion acetilio:

(Ac)2 + HClO4 ↔ (Ac)2 OH+ + ClO4-


(Ac)2 OH+ ↔ HOAc + CH3CO+ ion acetilio
+ +
CH3CO + R-OH ↔ AcOR + H

Técnica
Se trasvasa la muestra pesada con exactitud a un erlenmeyer seco con tapón
de vidrio esmerilado, se adiciona un exceso de reactivo anhídrido acético. Se
agita la mezcla para disolver la muestra. Se deja en reposo un cierto tiempo y a
una determinada temperatura para que se lleve a cabo la acilación.
Completada la reacción se hidroliza el exceso de anhídrido y se valora el ácido
formado con un álcali estándar (hidróxido de sodio 0.5N, libre de carbonato),
usando como indicador fenolftaleína 1% en piridina. Deberá hacerse un ensayo
en blanco.
Nota: Para que la reacción sea completa el consumo de la muestra debe
representar aproximadamente el 60% del consumo del blanco.

Interferencias
 Los compuestos hidroxílicos requieren elevadas temperaturas para que la
reacción sea cuantitativa y si existe impedimento estérico, la reacción es
muy lenta.
 Los compuestos hidroxílicos aromáticos que reaccionan incompletamente,
(en estos casos es posible la determinación utilizando como catalizador
ácido perclórico en acetato de etilo).

202
 Muchas aminas primarias y secundarias reaccionan cuantitativamente con
el reactivo por un mecanismo idéntico al ya descrito y más rápidamente que
los compuestos hidroxílicos originando la formación de una amida. Las
aminas terciarias al no poseer un hidrogeno reemplazable no experimentan
esta reacción.
 Los aldehídos de bajo peso molecular que por condensación aldólica
formen una función hidroxilo acilable.

2. Para 1,2 glicoles con ácido periódico

Fundamento
Se produce la oxidación del compuesto 1,2 dihidroxílico por el ácido periódico
obteniéndose dos aldehídos.
OH OH

R-CH-CH-R´ + HIO4 → RCHO + R´CHO + H2O + HIO3


Posteriormente se añade un volumen de una solución de ioduro de potasio y se
valora con solución de tiosulfato de sodio.

Valoración del blanco


El ácido periódico oxida el ioduro a iodo. El ácido iódico producido es capaz de
oxidar al ioduro.
2 H+ + HIO4 + 2I- → HIO3 + I2 + H2O
5 H+ + HIO3 + 5I- → 3 I2 + 3H2O
Cada mol de ácido periódico produce 4 moles de iodo (8 equivalentes)
Considérese ahora la valoración de la muestra. Completada la oxidación del
glicol, la solución contiene exceso de ácido periódico más un mol de ácido
iódico por cada unidad 1,2 dihidroxílica que se oxidó. Así cada periódico
produce 4 iodos y cada iódico, 3 iodos, con el resultado total de que por cada
unidad 1,2 dihidroxílica en la muestra resulta la producción de 1 mol (2
equivalentes) menos de iodo relativo a la valoración del blanco. Es decir 1 mol
de unidad 1,2 dihidroxílica corresponde a una disminución de 2 equivalentes en
el consumo de tiosulfato; por tanto, el peso equivalente de una unidad 1,2

203
dihidroxílica sencilla es igual a la mitad de su peso molecular, según la
reacción final de valoración.
Se ha observado que si un compuesto posee n grupos hidroxílicos adyacentes
se consumirán en la oxidación (n-1) moles de ácido periódico. Así, de hecho,
se oxidan (n-1) unidades dihidroxílicas y el Peso Equivalente (PE) de la
muestra es igual a ½(n-1) veces su peso molecular.
Para el etilenglicol, por ejemplo, n=2 y peso equivalente (PE) =PM/2.
De acuerdo con el razonamiento anterior, si la muestra, el glicol, consume
todo su ácido periódico, el volumen empleado en la valoración de la muestra
será un 75% que el invertido en la valoración del blanco. Si el volumen
empleado en la valoración de la muestra es menor que, aproximadamente el
80% del volumen del blanco, es aconsejable repetir el análisis con una
muestra más pequeña de glicol, para asegurarse de que hay exceso de ácido
periódico.

Técnica
Se adiciona a la muestra, previamente disuelta, un exceso de ácido periódico
(este reactivo debe protegerse de la luz). Completada la oxidación, se añade
ioduro de potasio y se valora el iodo liberado con tiosulfato. La diferencia entre
el tiosulfato consumido por el blanco y la muestra guarda relación con la
cantidad de ácido periódico utilizado en la oxidación del glicol. Se debe hacer
un ensayo en blanco.

Interferencias
Los aminoalcoholes e hidroxicetonas son posibles interferencias.

3. Bromación de Fenoles

Fundamento
Compuestos hidroxílicos aromáticos reaccionan con bromo vía sustitución en
posición orto y para respecto del grupo hidroxilo.

204
Técnica
Se adiciona a la muestra, previamente disuelta, un exceso de reactivo de
bromo (en ácido acético). Completada la reacción, se añade ioduro de potasio
y se valora el iodo liberado con tiosulfato. Se debe hacer un ensayo en blanco.
La diferencia entre el tiosulfato consumido por el blanco y la muestra guarda
relación con la cantidad de bromo utilizado para sustituir el compuesto
hidroxílico.

Interferencias
 Aminas aromáticas capaces de dar reacciones de sustitución.
 Aldehídos y olefinas que pueden consumir reactivo y sufrir oxidaciones y
adiciones respectivamente.

Métodos de Análisis Alternativos

A. Método colorimétrico con ion férrico

Fundamento
Los fenoles reaccionan con una solución de nitrato de hierro (III) en ácido
nítrico, se produce un color característico cuya intensidad se mide en la región
del visible a una determinada longitud de onda.

B. Método colorimétrico con las sales de diazonio

Fundamento
Los fenoles se acoplan en posición para respecto al grupo fenólico (si esta
posición está ocupada el acoplamiento se desarrollará en la posición orto) con
una sal de diazonio, para dar un compuesto coloreado característico cuya
intensidad se mide en la región del visible a una determinada longitud de onda.

205
C. Método colorimétrico con ácido cromotrópico para 1,2 glicoles

Fundamento
Los compuestos que poseen 1,2 glicoles y que por oxidación con ácido
periódico generan como producto de reacción formaldehído, éste reacciona con
ácido cromotrópico (1,8 dihidroxinaftaleno-3,5-disulfónico) desarrollando una
coloración característica cuya intensidad se mide en la región del visible a una
determinada longitud de onda.

D. Volumetría ácido-base

Fundamento
Los fenoles se comportan como ácidos débiles ya que ocurre la estabilización
resonante del anión por deslocalización de la carga negativa. Es posible
valorarlos con exactitud en sistemas no acuosos. Los disolventes
recomendados para valorar ácidos débiles tienen carácter básico, pueden ser
neutros también para la valoración diferenciadora de mezclas (ver tabla 1).
Valorantes adecuados son por ejemplo:
 Metóxidos de sodio, potasio y litio en soluciones de metanol-benceno
 Hidróxido de tetrabutilamonio.
Todos los valorantes básicos han de almacenarse en recipientes pyrex o de
polietileno y con mínima exposición al C02 atmosférico.
Para estandarizar la solución de valorante se suele usar ácido benzoico, las
valoraciones se efectúan en corriente de nitrógeno o en el punto de ebullición
para minimizar la absorción de C02.

Aplicaciones
Los ácidos cuyos valores de pKa ≤ 7 (entre 3-6) se valoran con detección
visual del punto final mediante azul de timol, en dimetilformamida. Los ácidos
con pKa entre 7-11 requieren detección potenciométrica del punto final.
Los alcoholes son ácidos muy débiles y muy pocos se pueden valorar como
ácidos. Con los fenoles la situación es diferente, a pesar de ser ácidos débiles

206
se pueden valorar en medios no acuosos. Los tioles son ácidos mucho más
fuertes que sus análogos oxigenados.
 Aminas

Las aminas se clasifican en:


Aminas Primarias R-NH2
Aminas Secundarias R-N-HR1
Aminas Terciarias R-N-R1R2(R3N)
R: Radicales alifáticos y/o aromáticos.
Las alquilaminas son más básicas que el NH3 ya que los grupos alquilo son
donantes de electrones al N en cambio los grupos que atraen electrones
disminuyen la basicidad, por lo cual las aminas aromáticas son bases más
débiles que las alifáticas.
Ejemplos de aminas presentes en principios activos:

Dopamina Dobutamina
Los antidepresivos tricíclicos a menudo se clasifican como aminas terciarias
(amitriptilina, imipramina) y secundarias (desipramina)

Métodos de Análisis

1. Formación de iminas (Bases de Schiff) usando como reactivo 2,4


pentanodiona

207
Fundamento
Las aminas primarias alifáticas experimentan condensación con carbonilos
para producir iminas.
RNH2 + R´CHO ↔ R´HC = NR + H2O

Técnica
Se adiciona a la muestra, previamente disuelta en piridina, un exceso de
reactivo 2,4-pentanodiona, completada la formación de iminas, se adiciona un
indicador (timolftaleína) y el exceso del compuesto carbonílico, se valora por
retroceso con solución estándar de álcali como por ejemplo metóxido de sodio.
Se debe hacer un ensayo en blanco.

Interferencias
 Los ácidos libres reaccionan lentamente con el reactivo valorante.
 Puede ser aplicado a aminoácidos, pero previamente deben ser
transformados en su sal sódica.
 También se puede aplicar para determinar amino-alcoholes, etilenaminas y
compuestos amino primario que tengan un nitrógeno heterocíclico. Dicha
clase de compuestos, es dificultoso determinarlos por otros métodos.
 Las aminas aromáticas primarias no pueden ser determinadas por este
método.
 Alcoholaminas secundarias, como dietanolamina y tioles reaccionan bajo
las condiciones del método.
 Aminas secundarias heterocíclicas, como piperazina y morfolina,
reaccionan lentamente con 2,4-pentanodiona. Dicha interferencia puede ser
corregida conduciendo la reacción a 0°C.

208
2. Volumetría ácido-base para aminas

Fundamento
Esta técnica tiene amplio uso en análisis farmacéutico, muchas de estas
valoraciones figuran en la Farmacopea Argentina, en la USP y en otras
farmacopeas. La posibilidad de utilizar la volumetría ácido-base depende de la
concentración de la base y de su fuerza.
Las aminas alifáticas son suficientemente básicas para poder ser valoradas en
soluciones acuosas con un ácido fuerte, mientras que las aminas aromáticas
son demasiado débiles para valorarlas en medio acuoso.

Aplicaciones
Las bases cuyos valores de Kb sean iguales o mayores que 10-6 podrán ser
valoradas en medios acuosos (pKb ≤ 6 y pKa ≥8), en cambio las bases con
valores de Kb menor que 10-6 (pKb > 6 y pKa <8) no podrán ser valoradas en
medios acuosos y requerirán de medios no acuosos. Además las bases cuyos
valores de pKa(en agua) > 4 (pKb < 10) están niveladas en ácido acético glacial y
se pueden valorar por detección visual del punto final, en cambio las bases
cuyos valores de pKa(en agua) se hallan en el margen 1-4 (pKb> 10) cabe
analizarlas mediante detección potenciométrica del punto final. Muchas aminas
heterocíclicas y aminas aromáticas sustituidas pertenecen a esta clase.
El ácido acético glacial es el disolvente más usado en la valoración de bases, el
anhídrido acético se utiliza para el análisis de bases muy débiles, tales como
las amidas.
Algunas veces se analizan mezclas de bases de distintas fuerzas
seleccionando un disolvente diferenciador para las bases, como pueden ser
acetonitrilo o nitrometano y se detecta el punto final por potenciometría.
Las sales halogenadas de aminas no pueden determinarse directamente ya
que no son sustancias intrínsecamente básicas por la relativamente alta acidez
del hidrógeno del haluro, éste puede ser reemplazado por acetato por adición
de un exceso de solución de acetato de mercurio, por conversión a un derivado
básico, el acetato de la amina.

209
El acetato de mercurio que no reaccionó no interfiere ya que en medio de ácido
acético glacial tiene una basicidad despreciable, debido a que los haluros de
mercurio en solventes orgánicos con baja polaridad están prácticamente no
disociados y no forman parte en el equilibrio.

2RNH2.HX  RNH+3 + 2X-


2X- + AC2Hg  X2Hg + 2 Ac-
2CI04H + 2AcOH 2AcOH2+ + 2CI04-
2AcOH2+ + 2Ac - 4AcOH
Donde X= Cl, Br, I, F.

Los acetatos de aminas son valorados en forma usual. Con el agregado del
acetato de mercurio a la solución del haluro se produce el reemplazo de las
bases por una cantidad equivalente de ion acetato que se comporta como la
base más fuerte que puede existir en medio acético.
Los disolventes que se usan como medios en la valoración de bases débiles
son neutros o ácidos (ver Tabla 1).
Como valorante se utiliza un ácido fuerte. Por ejemplo:
 Ácido perclórico: como el disolvente, ácido acético, es diferenciador para
los ácidos minerales, el perclórico es el más fuerte y aconsejable. Este ácido
disuelto en ácido acético es el valorante más usado para determinar bases
débiles. Se disponen comercialmente de ácido perclórico en solución acuosa
concentrada, por lo que conviene separar el agua, con este propósito se suele
adicionar cierta cantidad (estimada de antemano) de anhídrido acético, se
evita adicionar exceso de anhídrido por que las muestras acilables, tales como
las aminas primarias y secundarias, podrían convertirse en su presencia en
compuestos mucho menos básicos (amidas).
La estandarización de valorantes ácidos es factible con cualquier sustancia que
sea una base fuerte y de gran pureza, por ejemplo: biftalato de potasio:

210
El análisis volumétrico en soluciones no acuosas presenta el inconveniente del
alto valor del coeficiente de expansión cúbica de la mayoría de los líquidos
orgánicos, es decir que con los cambios de temperatura la normalidad de las
soluciones puede variar.
La detección del punto final se efectúa por lo general con indicadores o de
modo potenciométrico. Los indicadores que se utilizan para las valoraciones de
bases son bases muy débiles (ver tabla 1). Para la valoración de bases se
utiliza el cristal violeta (violeta de genciana), también el violeta de metilo se
comporta de manera similar. El cambio de color es complejo pasa del violeta
(color básico) al azul-verdoso, verde esmeralda, amarillo (color ácido).
El colorante α-naftolbenceína es adecuado para valoraciones en ácido acético
glacial, el cambio de color es de amarillo (color básico) al verde (color ácido).
Otro buen indicador es el rojo de quinaldina siendo el cambio de color de rosa
(color básico) a incoloro (color ácido).

3. Nitrito volumetría para aminas primarias aromáticas

Fundamento
Este método es llamado también de Diazotación, pues el fundamento del
mismo consiste en la reacción entre el ácido nitroso y el grupo amino primario
aromático, para dar una sal de diazonio. La reacción global entre el ácido
nitroso y las aminas aromáticas es:

R-NH2 + NO2H + HCl → (R-N2)+ Cl- + 2H2O

Es probable que la reacción se desarrolle por medio de una nitrosación inicial


de la amina seguida de la tautomerización de la nitrosamina y de la
descomposición del diazohidróxido:
R-NH2 + NO2H → R-NH-N=O + H2O
nitrosamina
R-NH-N=O  R-N=N-HO
diazohidróxido

211
R-N=N-HO + HCl → (R-N≡N)+ Cl- + H2O
Sal de diazonio

Debido a la inestabilidad del ácido nitroso se lo reemplaza por nitrito de sodio


en medio ácido.
Este método se puede aplicar a anestésicos locales con función amina libre y
para sulfas.

Técnica
La muestra de la amina a valorar se disuelve en agua destilada y se le agrega
una determinada cantidad de HCl concentrado (puede usarse como catalizador
de la reacción de nitrosación BrK al 25% si la amina no reacciona
rápidamente). Se sumerge el recipiente conteniendo la solución en un baño de
hielo–agua (≈ 5°C) para minimizar la pérdida del ácido nitroso. Luego se
sumerge la punta de la bureta conteniendo el valorante (Solución de nitrito de
sodio) en la solución a valorar, se adiciona el valorante desde bureta
lentamente y con agitación continua, tratando de evitar una alta concentración
de NO2H.
Se determina el punto final empleando electrodos apropiados (platino-calomel o
platino-platino) o mediante un indicador externo, como puede ser un papel de
filtro impregnado con engrudo de almidón y solución de ioduro de potasio o
una piedra de toque con dicha solución. Luego del punto final una gota de la
solución de valoración produce inmediatamente un color azul, estable durante
un minuto (no confundir un lento y progresivo color azul que es causa de la
oxidación en el aire del ioduro en medio ácido). El valorante se estandariza con
ácido sulfanílico como patrón primario.

Interferencias
 Interfieren las aminas secundarias que consumen NO2H, por formación de
los derivados N-nitrosados, y las aminas alifáticas que también consumen
NO2H con liberación de nitrógeno y producción de un alcohol.
 Las aminas terciarias alifáticas en su reacción con NO 2H producen
nitrógeno.

212
 Las aminas terciarias aromáticas forman compuestos C-nitroso aromáticos.

Métodos de Análisis Alternativos

A. Método colorimétrico de diazotación y copulación para aminas primarias


aromáticas

Fundamento
En primera instancia se produce diazotación de la amina aromática primaria
seguido del acoplamiento de la sal de diazonio, altamente reactiva, con un
segundo compuesto orgánico para dar un compuesto azo coloreado. El fenol
es el reactivo copulante característico.
El producto de reacción es altamente conjugado y absorbe radiación de
longitudes de onda en la zona del visible, del cual se puede medir
espectrofotométricamente su concentración.
Otro reactivo de acoplamiento es la N-(1-naftil) etilendiamina (Reactivo de
Bratton-Marshall).

B. Método colorimétrico para aminas primarias alifáticas con salicilaldehido

Fundamento
Las aminas alifáticas primarias reaccionan con salicilaldehído como reactivo
para generar una salicilimina que forma un complejo imino-cúprico, con una sal
de cobre que se extrae en n-hexanol. Se determina colorimétricamente el cobre
por reacción con ácido N,N-di (hidroxietil) ditiocarbámico, dando un complejo
de cobre ditiocarbamato determinándose su absorbancia a 420 nm.

Volumetría en Fase Heterogénea

Fundamento

213
La valoración en dos fases de aminas terciarias y sales de amonio cuaternarias
con tensioactivos aniónicos, tales como laurilsulfato de sodio o
dioctilsulfosuccinato de sodio es un método analítico de interés farmacéutico.
El proceso esencial en esta valoración de un ion amonio orgánico (Q+) o de una
amina (Q) con laurilsulfato de sodio (X-) es una extracción de par iónico:

Q+aq. + X- aq.  QXorg


-
Qorg + X aq  QXorg

La magnitud de la extracción depende de la estructura del par iónico y sus


componentes así como las propiedades de la fase orgánica. Todos los pares
iónicos tienen más o menos carácter polar y solventes no polares tales como
cloroformo y diclorometano son agentes extractivos muy usados pero
compuestos hidrofílicos pueden requerir solventes más protofílicos, por ejemplo
alcoholes lipofílicos.
El punto final puede ser indicado por el uso de un colorante que forme par
iónico con el valorante en la fase orgánica:

coloranteorg + LSNa aq  colorante.LSNaorg

También puede usarse un indicador que forme par iónico con la sal de amonio
o la amina valorada:

Q+aq
+ coloranteorg  Q coloranteorg
Qorg

El primer caso sería el de un colorante básico; el laurilsulfato de sodio se


combina con la base orgánica dando un compuesto soluble en fase orgánica;
ante el primer exceso del tensioactivo éste se compleja con el colorante dando
un compuesto insoluble en agua, que se visualiza en el punto final por un
cambio de color del indicador que queda complejado en la fase orgánica.

214
Es conveniente usar en lo posible este tipo de indicadores, ya que la constante
de extracción de su par iónico será independiente de las propiedades de la
muestra.
En el segundo caso se trata de un colorante ácido; al iniciarse la valoración se
encuentra complejado con la base en la fase orgánica. Cuando se agrega el
tensioactivo; éste desplaza al colorante, que pasa en su forma disociada a la
fase acuosa, que se va coloreando paulatinamente, en el punto final se
decolora la fase orgánica.
En este tipo de valoraciones es importante la elección de la base orgánica a
valorar:
 Su peso molecular debe ser elevado, superior a los 200 g/mol.
 La presencia de grupos hidrofílicos, por ejemplo -OH, disminuye el
rendimiento.
 Los grupos metoxi, etoxi y cabonilo pueden ejercer una influencia
perturbadora, pero esto debe comprobarse para cada caso en especial, ya
que dicho efecto puede anularse ajustando ciertas variables como por
ejemplo pH de la reacción, valorante, solvente orgánico, etc. Deberá ponerse
a punto el método.
La puesta a punto del método también es necesaria en el caso de sustancias
con más de una función nitrogenada.
En general las bases orgánicas que podrían ser valoradas por esta técnica se
agrupan de la siguiente manera:
 Amonios cuaternarios alifáticos, del tipo:

R1

R4 N+ R2

R3
R1, R2, R3 y R4: cadenas alifáticas de número de carbonos elevado

Como por ejemplo: Cetrimonio, Cetavlon, Biocetab.


 Amonios cuaternarios carbocíclicos o heterocíclicos. Como por ejemplo:
Cloruro de Benzalconio.

215
 Aminas terciarias. Como por ejemplo: derivados de la Fenotiazina,
Levomepromazina, Clorpromazina.
 Alcaloides del grupo de la morfina y otras bases orgánicas. Como por
ejemplo: Narcotina, Reserpina.

Ventajas del método


 Es un método simple y rápido, fácil de realizar.
 Se puede aplicar directamente sobre el producto terminado ya que la mayor
parte de los excipientes no interfiere y no hay que eliminarlos.
 Tiene buen límite de detección ya que permite valorar cantidades del orden
de los 10 mg de sustancia, a diferencia de otros métodos volumétricos que
requieren por lo menos 1mEq de principio activo, por ello es llamado también
método semi-microvolumétrico.
 Requiere reactivos e instrumental muy sencillo.
 Permite valorar la base orgánica libre o salificada, con solo disolverla en la
fase adecuada.
 El punto final es fácil de detectar, incluso a veces ofrece una doble
indicación, coloración de una fase y decoloración de la otra.

Reactivos empleados
 Solventes: agua, cloroformo o benceno.
 Colorantes: pueden ser ácidos: azul de timol, azul de bromofenol, púrpura
de bromocresol o básicos: azul de metileno, amarillo de dimetilo.
 Agente tensioactivo: laurilsulfato de sodio, que es una mezcla de
alquilsulfatos de sodio constituida principalmente por dodecilsulfato de sodio.
La solución de laurilsulfato de sodio se debe estandarizar con papaverina
como patrón primario.

Técnica
Disolver la muestra (se disolverá en una u otra fase según esté libre o
salificada) en una mezcla de volúmenes iguales de los solventes
seleccionados, (por ejemplo, 20:20 cloroformo:agua), se añade 5 ml del

216
colorante indicador y se titula con el agente tensioactivo, agitando
constantemente luego de cada agregado, hasta viraje del indicador.

Interferencias
Pueden llegar a interferir los ácidos orgánicos y los fenoles pues suelen formar,
sobre todo con los colorantes básicos, una sal entre el anión y el catión
colorante.

Muchas aminas y compuestos de amonio cuaternario forman pares iónicos con


colorantes ácidos, determinándose la concentración de las mismas por
extracción con un solvente determinado y leyendo su absorbancia al visible.

 Compuestos carbonílicos

Los aldehídos y cetonas tienen un grupo carbonilo, es decir un átomo de


carbono unido a un átomo de oxigeno por medio de un doble enlace, ese
enlace se encuentra altamente polarizado debido a la alta electronegatividad
del oxígeno, siendo éste nucleofílico, mientras que el carbono porta una carga
positiva parcial, siendo un sitio electrofílico y reacciona con los nucleófilos.

Las reacciones generales de los compuestos carbonílicos son:


 Adición nucleofílica
 Sustitución nucleofílica
 Condensación del grupo carbonilo
 Sustitución en α

217
Métodos de Análisis de Aldehídos

1. Adición de bisulfito

Fundamento
El bisulfito se adiciona al doble enlace carbonílico –C=O por un ataque
nucleofílico sobre el carbono. Se forma un enlace C – S
O OH
|| |
R - C - R´ HSO3- R - C - R´
|
SO3-

Técnica
En este método el bisulfito no se usa directamente como reactivo dada su
inestabilidad. Se trabaja con un exceso de sulfito de sodio al que se añade
antes de incorporar la muestra, un volumen conocido de ácido sulfúrico que
genera el bisulfito “in situ”, completada la reacción de adición se valora con
álcali, el exceso de bisulfito. Se debe hacer un ensayo en blanco.

Interferencias
 Las metilcetonas y las cetonas alicíclicas y las cetonas voluminosas que
adicionan bisulfito con bastante lentitud.
 Ácidos o bases que impurifiquen la muestra.

2. Método de oxidación

Fundamento
Se pueden oxidar los grupos aldehídos a los correspondientes ácidos
carboxílicos con agentes oxidantes tales como óxidos de plata (AgO2) Reactivo
de Tollens.
R-CHO + Ag2O → RCOOH + 2Ag

218
Técnica
Se determina por adición de un exceso de Reactivo de Tollens. Se produce la
aparición de un espejo de plata o una turbidez. Completada la oxidación, se
determina el exceso de plata por valoración con ioduro de potasio.
También puede valorarse el ácido producido con álcali estándar.
Se debe hacer un ensayo en blanco.

3. Formación de hidrazonas con dimetilhidracina

Fundamento
La formación de hidrazona se lleva a cabo por condensación entre el grupo
carbonilo y una hidracina.
O N – NH – R´
|| ||
R–C–H + R´ - NH – NH2 ↔ R–C–H + H2O

Técnica
Se adiciona a la muestra un exceso de reactivo, culminada la reacción el
exceso de dimetilhidracina se valora por retroceso con un ácido estandarizado,
con detección potenciométrica del punto final. Se debe hacer un ensayo en
blanco.

Interferencias
 Los ácidos fuertes.
 Las cetonas son bastante básicas y no podrían diferenciarse del exceso de
hidracina (básica) y no es posible distinguirlas potenciométricamente del
reactivo.

Métodos de Análisis de Aldehídos y Cetonas

1. Formación de hidrazona con 2,4-dinitrofenilhidracina

219
Fundamento
La formación de hidrazona se lleva a cabo por condensación entre el grupo
carbonilo y una hidracina.

NH - NH2
H H NO2
O
NO2
|| C N
R -C -H R N H2O

NO2
NO2
Las 2,4-dinitrofenilhidrazonas son derivados insolubles, cristalinos y
coloreados. Se aíslan y pesan fácilmente, y el alto peso molecular de la
hidrazona permite el análisis de muestras relativamente pequeñas por
gravimetría.

Técnica
Se adiciona el reactivo 2,4-dinitrofenilhidracina a la muestra a analizar disuelta
en una solución ácida. Transcurrida la condensación se filtra el sólido obtenido
a través de un crisol tarado, que posteriormente se seca y pesa.

Interferencia
Acetales y cetales ya que la reacción se lleva a cabo en medio ácido.

2. Método colorimétrico con 2,4-dinitrofenilhidracina

Fundamento
La formación de hidrazona se lleva a cabo por condensación entre el grupo
carbonilo y una hidracina (2,4-dinitrofenilhidracina).
Cuando se adiciona un álcali a la 2,4-dinitrofenilhidrazona, se produce un color
rojo vino, debido a la formación de un compuesto quinoidal. Este color
proporciona un ensayo colorimétrico muy sensible leyéndose la absorbancia a
480 nm.

220
3. Formación de oximas con hidroxilamina

Fundamento
El producto de Condensación de un aldehído o cetona con clorhidrato de
hidroxilamina NH2OH.HCl, se conoce con el nombre de oxima.

Técnica
Se añade un exceso de clorhidrato de hidroxilamina a la muestra, culminada la
reacción, se valora el ácido formado con un álcali estandarizado utilizando
detección potenciométrica del punto final (la detección potenciométrica es
necesaria para diferenciar el consumo de álcali debido al HCl formado del
consumo por parte del exceso de NH2OH.HCl)

Interferencias
Acetales, cetales y éteres vinílicos se hidrolizan fácilmente ya que la reacción
se lleva a cabo en medio ácido.

 Ésteres

Los derivados de ácidos carboxílicos pueden ser haluros de ácido (RCOCl),


anhídridos de ácido (RCOOCOR), ésteres (RCOOR´) y amidas (RCONH2).
Las reacciones de ácidos carboxílicos y derivados tienen lugar mediante un
proceso de sustitución por adición-eliminación.

O O- O
Nu - X-
|| | ||
R-C -X R-C -X R - C - Nu
Reacción de | Reacción de
Adición Eliminación
Nu

221
El orden de reactividad de los derivados de ácido para los procesos de adición
nucleofílica-eliminación es:

Cloruro de Ácido Anhidrido Éster Amida Carboxilato

Métodos de Análisis

1. Saponificación

Fundamento
Una base promueve la hidrólisis de los ésteres porque proporciona el reactivo
fuertemente nucleofílico oxidrilo que ataca al átomo de carbono electrofílico y
desplaza al ion alcóxido. La velocidad de la reacción está controlada por los
dos primeros pasos.
O ONa
|| |
R - C - OR´ Na OH R - C - OR´
|
OH

O : Na O
| ||
R - C - O R´ R - C - O- Na+ R´OH
|
OH

Técnica
Se disuelve la muestra en el disolvente seleccionado (agua, alcohol). Se
adiciona un exceso conocido de álcali estándar, se calienta a reflujo.
Culminada la reacción se deja enfriar la solución, se agrega solución indicadora

222
de fenolftaleína, y se valora el exceso de álcali con un ácido estándar. Se debe
realizar un ensayo en blanco.

Interferencias
 Cetonas y aldehídos.
 Los ésteres vinílicos no pueden ser determinados debido a que éstos
consumen hidróxido.

2. Método colorimétrico con hidroxamato de hierro (III)

Los ésteres (y otros derivados de ácidos carboxílicos) reaccionan con


hidroxilamina en presencia de bases fuertes produciendo ácidos hidroxámicos,
los cuales forman complejos (1:1) de color púrpura intenso con el ion férrico,
cuya absorbancia se lee en la región del visible.

O O
|| ||
R - C -OR´ + NH2OH R - C -NHOH + R´ OH

RCONHOH + Fe3+ R - C - NH 2+
+ H+
|| |
O O
Fe

 Amidas

Las amidas se forman por reacción de ácidos carboxílicos con amoniaco,


aminas primarias y secundarias. La reacción se realiza bajo calefacción,
predominando en estas condiciones el ataque nucleofílico que formará la
amida.

223
O O
||  ||
CH3 - C - O H : NH3 CH3 - C - N H2 H2O

: Calentamiento > 100°C


Como ejemplo podemos mencionar las siguientes estructuras:

Cloranfenicol Pirazinamida
Las lactamas son amidas cíclicas obtenidas por condensación, con pérdida de
agua, de una molécula que contiene grupos ácido y amino.
La Penicilina V es un agente antibiótico que contiene un anillo β-lactámico en
su estructura molecular:

Métodos de Análisis

1. Valoración acido base

Técnica
Las amidas son bases muy débiles. Para valorarlas se usa como medio
anhídrido acético, como titulante solución estándar de ácido perclórico en ácido
acético glacial o dioxano. El punto final se debe determinar por potenciometría
usando un electrodo de vidrio modificado. Se recomienda determinar el punto
final usando el método de la derivada primera o segunda
(En el electrodo de vidrio modificado, se ha reemplazado la solución acuosa
saturada de ClK por una solución de ClO4Li 0.1M preparada en anhídrido
acético. El electrodo se estabiliza dejándolo sumergido 12 hs. en anhídrido
acético antes de usarlo).

224
2. Saponificación

Las amidas son más difíciles de saponificar que otros derivados de ácidos, las
condiciones deben ser más drásticas. Se debe usar elevada temperatura y
calentamiento a reflujo en presencia de un exceso de álcali (ver Esteres).

 Alquenos

Se considerará a los compuestos que contienen el doble enlace carbono-


carbono. El tipo y grado de reactividad química conferido a una molécula por
una insaturación carbono-carbono depende de la estructura molecular local.
Un dieno es un compuesto orgánico que tiene dos enlaces dobles.
Un polieno tiene más de dos.
Dependiendo de su posición relativa se distinguen tres tipos de compuestos:

Doble enlace aislado CH2=CHCH2CH=CH2


Dieno conjugado CH2=CHCH=CH2
Acumulados CH2=C=CH2
Insaturaciones vinílicas R-CH=CH2
α,β Insaturados R-CH=CH-X
(X es un grupo sustractor de electrones)

El doble enlace C=C tiene una nube electrónica p desde la que se pueden
ceder electrones a un atacante electrófilo. Por tanto, la reacción más
importante de los alquenos es la adición electrófila.
Los dienos aislados no tienen propiedades especiales y se comportan como
alquenos normales. Los acumulados o alenos tienen propiedades estructurales
especiales. Pero los más interesantes son los conjugados, que tienen una
reactividad muy característica, como por ejemplo los β-Carotenos

225
β-Carotenos

Métodos de Análisis

1. Método del acetato de mercurio (II)

Fundamento
Se adiciona acetato de mercurio (II) en medio de metanol a los alquenos con
dobles enlaces aislados y vinílicos, produciendo un compuesto de adición y
ácido acético.

HgOAc
R-CH = CH2 + Hg(OAc)2 + CH3OH R-CH-CH2 + AcOH
OCH3

Técnica
Este método se puede resolver de dos formas distintas:
 Titulando el AcOH formando con HOK/CH3OH y fenolftaleína. Se debe hacer
un blanco y determinar previamente tiempo y temperatura de reacción
(generalmente se trabaja a bajas temperaturas o a temperatura ambiente).
 Agregando un exceso conocido de Ac2Hg y valorando el exceso con
solución de HCl estándar y azul de timol como indicador. Tanto el exceso de
Ac2Hg como el producto de adición formado consumen ácido, pero en
distintas proporciones:
Hg (OAc)2 + 2HCl → Cl2Hg + 2AcOH

226
RO RO
| |
H- C - C - H HCl H- C - C - H AcOH
| |
Hg OAc Hg Cl
Es decir que el exceso de Ac2Hg consume 2 moles de HCl por mol y el
compuesto formado consume 1 mol de HCl. Se hace un blanco y luego la
diferencia entre los equivalentes de HCl consumidos por este blanco y la
muestra nos dará el número de equivalentes del alqueno en la muestra.

Interferencias
Los dienos conjugados y los α,β insaturados reaccionan pero no
cuantitativamente.

2. Método de adición de halógenos

Fundamento
Se produce la adición del reactivo electrofílico al doble enlace C=C presente
en alquenos, se pueden valorar compuestos insaturados aislados, conjugados
y vinílicos. No todos los dobles enlaces reaccionan de la misma forma, por
ejemplo en los compuestos aromáticos los enlaces participan de un sistema
conjugado siendo entonces su reactividad menor que la de un sistema aislado.

Br
H2C CH2 + Br Br
Br

Técnica
Se añade un exceso de bromo a la muestra, culminada la reacción se adiciona
ioduro de potasio inmediatamente se titula con tiosulfato de sodio
estandarizado hasta desaparición de color amarillento en el punto final.
Se debe hacer un ensayo en blanco

227
3. Método de la morfolina para α, β insaturados

Fundamento
Cuando el doble enlace está situado en α,β respecto a un grupo aceptor de
electrones (X) la fuerte atracción de electrones de este grupo induce una
densidad positiva en el Cβ que es susceptible de ser atacado por reactivos
nucleofílicos, como la morfolina, una amina secundaria cíclica, produciéndose
la adición al doble enlace de la misma y obteniéndose una amina terciaria.

H
H N
|
RC=C-X O N -C RH - CH2 - X
|
H O

Técnica
Se añade un exceso de morfolina a la muestra, culminada la reacción, que se
debe realizar a temperatura ambiente y a un tiempo entre 5-60 minutos, se
acila el exceso de morfolina con anhídrido acético en medio de acetonitrilo e
inmediatamente se titula con ácido clorhídrico estandarizado la amina terciaria
formada. Se debe realizar un ensayo en blanco.

Interferencias
 Ácidos y bases presentes en la muestra.

228
Relativamente
Relativamente
De carácter ácido De carácter básico neutro
Tipo de neutro
para titulación de para titulación de para titulación
solvente para titulación
bases y sus sales ácidos diferencial de
diferencial de bases
ácidos

Acetonitrilo
Ácido acético
Alcoholes Acetona
glacial Dimetilformamida
Cloroformo Acetonitrilo
Anhídrido acético n-butilamina
Benceno Metil etil cetona
Solvente Ácido formica piridina
Tolueno Metil isobutyl
Ácido propiónico etilendiamina
Clorobenceno cetona
Cloruro de morfolina
Acetato de etilo Alcohol ter-butílico
sulfurilo
Dioxano

Azul de timol Azo violeta


Cristal violeta
Timolftaleina Azul de
Rojo de quinaldina Rojo de metilo
Azo violeta bromotimol
Indicador p-naftolbenceina Naranja de metilo
o-nitroanilina p-
alfazurina 2-G p-naftolbenceina
p- hidroxiazobenceno
verde de malaquita
hidroxiazobenceno azul de timol

Vidrio/calomel
Antimonio/calomel
Vidrio/plata/cloruro Vidrio/calomel Antimonio/calomel
Antimonio/vidrio
Electrodos de plata Calomel/plata/cloruro Vidrio/calomel
Antimonio/antimonio
Mercurio/acetato de plata Vidrio/platino
Platino/calomel
de mercurio
Vidrio/calomel

Tabla 1. Sistemas para titulaciones en medio no acuoso

229
Preguntas Orientadoras

1. Cuál es el fundamento de la reacción de acilación para valorar un


compuesto con una función alcohólica primaria.
2. Qué métodos colorimétricos conoce para valorar fenoles.
3. Para qué tipo de aminas es aplicable el método de formación de
iminas.
4. En qué consiste la volumetría en fase heterogénea.
5. Cómo valoraría una muestra de ácido acetilsalicílico?

Test de Autoevaluación
Las opciones son Verdadero (V) o Falso (F)

1. En la acilación de una muestra, que contiene un grupo hidroxilo, con


anhídrido acético el volumen consumido por la muestra es igual a
VB/2.
V / F
2. La siguiente reacción describe la formación de imina:
RNH2 + R´CHO ↔ R´CH = NR + H2O
V / F
3. Las cetonas reaccionan con Ag2O.
V / F
4. Derivados de ácidos carboxílicos y su orden de reactividad en una
reacción de adición.
Éster > Amida > Carboxilato
V / F
5. Para valorar una amina aromática primaria presente en una materia
prima se utiliza la volumetría en fase heterogénea
V / F
6. Para valorar la función amida presente en un principio activo se
utiliza una volumetría ácido base en medio acuoso.
V / F

230
7. Muchos principios activos de uso farmacéutico son ácidos o bases
débiles y pueden ser valorados utilizando medios no acuosos
V / F

Bibliografía

1. Ministerio de Salud – ANMAT. Farmacopea Argentina. VII ed. (2003)


Buenos Aires.
2. Critchfield; F. R. (1963) Organic Functional Group Analysis. New York,
Macimillan.
3. Seyhan Ege.(1997). Química orgánica: estructura y reactividad, Volumen
2. Edición Española.
4. Daniel C. Harris (2007). Análisis Químico cuantitativo. Barcelona:
Reverté, S.A.

231
CAPITULO 10
LA PRUEBA DE DISOLUCIÓN
María Esperanza Ruiz

Introducción

La evaluación de la disolución tiene aproximadamente un siglo de desarrollo.


Sin embargo, en las últimas décadas ha suscitado mayor interés,
especialmente por su aplicación al estudio de productos medicamentosos
sólidos, en los que el proceso de disolución se encuentra relacionado con la
biodisponibilidad del fármaco en el organismo.
Para que una molécula con determinada actividad intrínseca pueda convertirse
en un fármaco, debe ser capaz de alcanzar su lugar de acción en el organismo.
En el caso de fármacos formulados para su administración oral, el proceso de
absorción dependerá de su disolución o solubilización bajo condiciones
fisiológicas y de su permeabilidad a través de la membrana de las células del
tracto digestivo. Por otro lado, si además se trata de una forma farmacéutica
solida, deberá ser liberado de ella antes de disolverse.
En consecuencia, la velocidad a la que aquellos principios activos poco
solubles en agua se disuelven en el tracto gastrointestinal a partir de la forma
farmacéutica se correlaciona con su velocidad de absorción sistémica. Es por
ello que el ensayo de disolución es la prueba in vitro de elección para estudiar
el comportamiento que tendrán los medicamentos in vivo, y se ha convertido en
un requisito farmacopeico y regulatorio para la evaluación de formas
farmacéuticas. Si bien inicialmente se aplicaba exclusivamente a formulaciones
sólidas, con el tiempo se ha expandido más allá de los comprimidos y las
cápsulas, para abarcar también a los productos de liberación modificada,
productos transdérmicos, suspensiones orales, etcétera.

232
Por lo tanto, es la relación existente entre la disolución de un medicamento y su
posterior desempeño in vivo el motivo de la relevancia de la prueba de
disolución, ya que, con ciertas limitaciones, la misma puede emplearse como
elemento predictivo de la biodisponibilidad in vivo del fármaco. La FDA define la
biodisponibilidad (BD) como la "cantidad y velocidad a la cual el principio activo
es absorbido desde un producto farmacéutico y queda disponible en el sitio de
acción". Sin embargo, debido a que para la mayoría de los principios activos no
es posible conocer nunca su concentración en el sitio de acción, se ha
propuesto otra definición según la cual la BD es la "cantidad relativa del
medicamento que ha accedido a la circulación general después de su
administración, y velocidad a la cual se ha producido dicho acceso". Esta última
definición ha sido adoptada por la autoridad sanitaria de nuestro país entre
otras, y constituye tanto el fundamento de la determinación práctica de la BD
como de su estrecha relación con el ensayo de disolución in vitro.
Asimismo, el ensayo de disolución posee otras y muy variadas aplicaciones, las
que serán tratadas al final de este capítulo. Entre las principales podemos
mencionar su empleo en el control de calidad de medicamentos, para la
evaluación de la uniformidad entre lotes, en la etapa de pre-formulación, en
estudios de estabilidad y de equivalencia farmacéutica, entre otros.
Por último, para que los resultados de disolución sean comparables y
reproducibles, el ensayo debe realizarse según las recomendaciones dadas en
la Farmacopea Argentina (FA) y asegurando que el equipo cumple las medidas
indicadas en el Capítulo General sobre Ensayo de Disolución ⟨320⟩ de la FA.
Se trata de un ensayo complejo donde entran en juego muchas variables, las
que deben enmarcarse en los principios de las GLP.

Leyes que rigen la disolución de un sólido

La disolución se define como la transferencia de masa desde un sólido al


medio de disolución o solvente que lo rodea. Es una propiedad dinámica que
se modifica en el tiempo y que explica el proceso por medio del cual se puede

233
obtener una mezcla homogénea de un sólido o un líquido en un solvente.
Fisicoquímicamente, puede representarse como el proceso inverso a la
cristalización, lo que macroscópicamente corresponde a la desintegración de la
estructura cristalina bajo la acción del disolvente que la rodea.
En 1897 Noyes y Whitney publicaron el artículo “Rate of dissolution of solid
substances in their own solution”, el que se convirtió en una de las primeras
referencias a la evaluación de la disolución. En dicho artículo, los autores
sugieren que la velocidad de disolución (dC/dt) es limitada por una capa
estanca de solución saturada que se forma instantáneamente alrededor de las
partículas del sólido y a partir de la cual las moléculas difunden al seno de la
solución (ecuación 1). Luego, en 1904 Nernst y Brunner establecieron la
relación entre la velocidad de disolución y el coeficiente de difusión (D),
mediante una ecuación derivada de la de Noyes-Whitney por la aplicación de la
ley de difusión de Fick (ecuación 2). Las ecuaciones correspondientes son las
siguientes:

En las ecuaciones anteriores, dC/dt representa la velocidad de disolución de la


droga; k es una constante; Cs es la concentración de la droga en la capa
estanca (concentración de saturación); C es la concentración en el seno de la
solución; S es el área superficial del sólido; D es el coeficiente de difusión, V es
el volumen de solución y h es el espesor de la capa estanca.
En 1931 Hixson y Crowell expresaron el área superficial (S, ecuación 2) en
función de la masa m. Considerando partículas esféricas, se tiene que S es
proporcional a m2/3 y eso permite la aplicación de los cálculos a la disolución de
partículas compactas. Haciendo los cálculos correspondientes e integrando
luego, se obtiene una ecuación que relaciona al tiempo con la raíz cúbica de la
masa (ecuación 3). Cuando las concentraciones disueltas son pequeñas y por

234
lo tanto la diferencia (Cs – C) puede aproximarse constante, esta ecuación se
puede expresar como:

Las tres ecuaciones anteriores pueden ser consideradas como diferentes


expresiones del “modelo de la capa de difusión”. Es decir, este modelo sería la
herramienta empleada para explicar físicamente el proceso de disolución, de la
que luego se derivan las diferentes ecuaciones. En todos los casos, la etapa
limitante es la difusión de las moléculas a través de la capa estanca de líquido
(de espesor h) alrededor de la superficie sólida.

CS


LI
D
O h

Figura 1. Esquema de la disolución de una partícula esférica en un flujo laminar que permita
suponer la existencia de una capa de líquido estanca de espesor uniforme h adsorbida
alrededor de cada partícula. Cs es la concentración de la droga en la capa estanca
(concentración de saturación) y C es la concentración en el seno de la solución

El modelo anterior, si bien fue uno de los más aplicados y desarrollados, no fue
el único propuesto. El modelo de la barrera interfacial, propuesto inicialmente
por Wilderman en 1909, postulaba que la etapa limitante del proceso de
disolución era el transporte a través de la interfaz (en lugar de la difusión a
través de la capa estanca) debido al elevado valor de energía de activación
para el mismo. En 1951 Danckwerts propone otra teoría llamada de

235
“renovación de superficie”, que suponía la existencia de conjuntos o “paquetes”
macroscópicos de disolvente que se desplazan hacia el sólido, y
seguidamente, por un simple proceso de difusión, cada “paquete” absorbe
soluto y luego es reemplazado inmediatamente por otro fresco, generándose
así un ciclo de disolución continuo.
A pesar de lo discutido hasta aquí, no existe actualmente una única teoría que
logre explicar satisfactoriamente el comportamiento de disolución de los
sólidos. Y si tenemos en cuenta que en el caso de productos farmacéuticos la
situación es más compleja ya que no suelen tratarse de sólidos puros sino de
mezclas de componentes (activo + excipientes), la situación es aún más
desfavorable. Sin embargo, las teorías expuestas resultan útiles para analizar,
por ejemplo, la influencia que tendrán distintos factores experimentales sobre la
velocidad de disolución (agitación, área superficial).

De Noyes-Whitney a la actualidad

A pesar de los avances en el estudio de la disolución in vitro hasta aquí


descriptos, los mismos pertenecían al campo de la ingeniería química, mientras
que para las ciencias farmacéuticas la importancia de este fenómeno no fue
reconocida de manera generalizada hasta el comienzo de los años 50. En 1930
comenzaron a aparecer experimentos de disolución bajo la forma de
correlaciones in vitro-in vivo, y en 1934 fue la primera vez que un libro oficial, la
farmacopea Helvética de Suiza, incluyó el test de desintegración para
comprimidos, que se realizaba en agua a 37 ºC con agitación constante. Sin
embargo, recién en 1950 dicho test se convirtió en oficial para la Farmacopea
de los Estados Unidos (USP 14).
El primer test oficial de disolución para formas sólidas de dosificación fue
incorporado en la USP 18 (1970). Luego, debido al creciente interés en los
tópicos de disolución y absorción gastrointestinal, se produjo una explosión en
el número de monografías con requerimientos de disolución en las siguientes
ediciones de la USP/NF, y a partir de allí también comenzaron a aparecer los

236
primero equipos de disolución o “disolutores”, los que hasta el día de hoy
consisten en un baño de agua con control de temperatura donde se sumergen
seis vasos que contienen el medio de disolución y el producto a ensayar,
agitados a velocidad variable (Figura 2). Recién en 1985 se publicó un capítulo
general llamado “Drug Release” en la USP 21. Para el año 1990, había 23
monografías para formas farmacéuticas de liberación modificada en USP 22-
NF 18, y en 1997 aparecen las guías de la FDA para disolución de formas
sólidas orales (de liberación inmediata, modificada y prolongada) que aún
permanecen vigentes.

Figura 2. Esquema de un equipo de disolución. Los vasos que contienen el medio donde se va
a disolver el principio activo (al menos seis) se sumergen en un baño de agua con control de
temperatura y se agitan a la velocidad deseada (50 rpm, por ejemplo) mediante un vástago
central (en el esquema, con forma de paleta).

Factores que influyen en la velocidad de disolución

Dada la complejidad del proceso de disolución, son numerosos los factores que
pueden modificar la velocidad a la que se produce. Estos factores pueden
clasificarse en:

237
A) Factores que dependen del medio de disolución
Son factores experimentales, variables críticas a definir durante los ensayos.

Agitación
De acuerdo con la teoría de Nernst y Brünner, el espesor de la capa líquida que
rodea a las partículas es inversamente proporcional a la velocidad de agitación.
Por lo tanto, si aumenta la intensidad de la agitación, disminuye el espesor del
film, favoreciendo la difusión de las moléculas al seno de la solución.
Se han desarrollado otros modelos más complejos para explicar la relación
entre la velocidad de la disolución y la intensidad de la agitación, sobre todo en
los casos donde no se puede suponer flujo laminar. Pero en todos los casos, la
relación entre estas variables es directa: mayor disolución a mayor agitación.

Temperatura
Según la ley de Le Chatellier, un proceso endotérmico es favorecido por el
aumento de temperatura: como la mayoría de los sólidos presentan calores de
disolución positivos, el aumento de temperatura favorece su solubilidad y
velocidad de disolución.
Por otro lado, la ecuación de Nernst-Brunner (ecuación 2) muestra la relación
directamente proporcional entre velocidad de disolución y coeficiente de
difusión de una molécula que, acorde a la ecuación de de Stokes-Einstein,
aumenta con la temperatura (ecuación 4):

En la ecuación anterior, D: coeficiente de difusión; R: constante de los gases,


T: temperatura (ºK); viscosidad; r: radio de la partícula y N: número de
Avogadro.

Composición del medio de disolución


El pH es importante en todos los productos de carácter iónico, ya que la
solubilidad de un electrolito varía en función del pH. Para un ácido débil:

238
Donde C0 es la solubilidad intrínseca del ácido no disociado y Cs la solubilidad
total. Por lo tanto la velocidad de disolución sería:

A partir de las expresiones anteriores puede verse que la velocidad de


disolución de un ácido aumenta si se incrementa el pH, mientras que para las
bases débiles sucede lo contrario.
Por otro lado, la ecuación 4 muestra también que el coeficiente de difusión de
una molécula es inversamente proporcional a la viscosidad del medio, por lo
tanto a mayor viscosidad del medio, menor velocidad de disolución.
En cuanto a las sales presentes en el medio de disolución, éstas pueden
actuar por dos mecanismos, “salting in” (aumentan la solubilidad, por ejemplo la
urea) o “salting out” (disminuyen la solubilidad al hidratarse a expensas del
agua libre, ejemplo NaCl).
Otro factor que puede influir es la tensión superficial. Los agentes
tensioactivos provocan una disminución de la tensión superficial y contribuyen
así a aumentar la velocidad de disolución de un sólido mediante tres
mecanismos principales:
i) Pueden mejorar la humectación de las partículas, es decir, favorecer el
contacto entre éstas y el disolvente y así aumentar la superficie libre para el
ataque por el líquido disolvente.
ii) Pueden aumentar la solubilidad a través de un mecanismo de falsas
emulsiones o soluciones. A partir de una cierta concentración, cuando el
tensioactivo ya no se encuentra en solución verdadera sino que se encuentra
en forma micelar, el poder solvente frente a las sustancias hidrófobas aumenta.

239
iii) Los agentes tensioactivos también pueden influir sobre los fenómenos
de difusión asociados a los procesos de disolución.

B) Factores que dependen del sólido a disolver


Son factores no modificables durante los ensayos.

Solubilidad
Es un parámetro termodinámico que representa la concentración de la solución
de un fármaco en equilibrio con el soluto. Según la ecuación de Noyes-Whitney
(ecuación 1) la solubilidad (Cs) es el factor más importante en la velocidad de
disolución. Varios factores pueden modificar la solubilidad de una sustancia
sólida:
La solubilidad depende principalmente de la naturaleza química del sólido.
Los electrolitos se disuelven fácilmente en agua, mientras que en el caso de
sustancias que contienen a la vez grupos polares y no polares, su solubilidad
en agua depende de la relación entre esos grupos. Por otro lado, en el caso de
sustancias ácidas o básicas, también se puede modificar la solubilidad según
se utilice la forma libre (genéricamente denominada “forma base”) o una sal.
El polimorfismo, es decir la capacidad de una sustancia de cristalizar en más
de un sistema, también incluye en la solubilidad, ya que cada polimorfo posee
propiedades físicas diferentes, entre ellas el punto de fusión, la solubilidad y la
velocidad de disolución.
En algunos casos, la presencia de impurezas o trazas de impurezas, no
detectables por los métodos químicos que suelen ser aceptados por las
farmacopeas, pueden inhibir la disolución.

Área superficial
Depende principalmente del tamaño de las partículas, aunque también de su
porosidad y forma geométrica. Al disminuir el tamaño de las partículas aumenta
su área superficial S, y con ella la velocidad de disolución (ver ecuación 2).

240
C) Factores tecnológicos y de formulación:

Al igual que los anteriores, estos factores no pueden modificarse durante el


ensayo, sino solamente en la etapa de preformulación. Tanto los
procedimientos de fabricación (mezcla, granulación, fuerza de compresión)
como los excipientes que acompañan a los principios activos en la formulación
pueden influir de alguna manera en el proceso de disolución.

Excipientes

Los diluyentes, que se emplean para dar volumen a un comprimido (ej:


sacarosa, lactosa), pueden generar comprimidos demasiado consistentes, con
menores velocidades de disolución. También se han indicado efectos de
adsorción y complejación de algunos fármacos con diluyentes.
Por el contrario, los desintegrantes contribuyen a la disgregación rápida en el
fluido gastrointestinal (ej. almidones), y por lo tanto suelen aumentar la cantidad
de desintegrante aumenta la velocidad de disolución.
Los excipientes que se utilizan para dar resistencia mecánica a los
comprimidos (también llamados aglutinantes) en general producen un
aumento en el tiempo de desintegración y, por lo tanto, la disminución de la
velocidad de disolución. Los lubricantes, por su parte, también disminuyen la
velocidad de disolución. Dichos excipientes, que se incluyen en la mezcla para
evitar la adherencia y mejorar la fluidez de los polvos, en porcentaje elevado
impiden la humectación de las partículas, disminuyendo así su disolución (ej:
estearato de magnesio)

Método de granulación
De acuerdo con el método empleado pueden obtenerse comprimidos de
diversa resistencia mecánica, la cual influye en la velocidad de disolución del
principio activo.

241
Fuerza de compresión
Durante la compresión es difícil mantener las características granulométricas
de los principios activos. La velocidad de disolución, según algunos autores,
aumenta con el aumento de la fuerza de compresión, llega a un máximo y
luego decrece hasta un nivel constante. Otros autores consideran que cuando
se aplica una fuerza débil, las partículas se aglomeran, y disminuyen la
velocidad de disolución, pero si aumenta la fuerza llega un punto en que las
partículas se rompen, y la velocidad de disolución aumenta hasta un máximo
para luego disminuir.

Envejecimiento
La velocidad de disolución de comprimidos envejecidos puede ser menor que
la de los recién elaborados. Este efecto se puede deber a diferentes causas,
como la presencia de ciertos excipientes que aumentan la dureza de los
comprimidos en el tiempo, o al efecto del agua residual del granulado.

Objetivos y aplicaciones del ensayo de disolución

Las pruebas de disolución como hoy las conocemos son métodos de control in
vitro que permiten evaluar las características de liberación de un fármaco
desde su forma farmacéutica a un medio de disolución apropiado, en
condiciones experimentales cuidadosamente estandarizadas. La evaluación de
la disolución es un ensayo con numerosos objetivos y aplicaciones. Dentro de
las aplicaciones rutinarias del ensayo de disolución podemos citar:
- Evaluar materias primas. Si se emplea una materia prima con pobres
características de disolución, muy posiblemente se verá afectado el
comportamiento de disolución del producto terminado. Para realizar este
ensayo se coloca la droga pura en una cápsula de gelatina.
- Servir como guía para el desarrollo de formas farmacéuticas orales durante
la etapa de preformulación.

242
- Monitorear la calidad, consistencia y estabilidad de formulaciones en el
tiempo, ya que debe asegurarse que los parámetros iniciales de disolución
se mantengan durante toda la vida útil del producto. En este sentido, la
prueba de disolución se convierte en un indicador de del proceso de
biocaducidad.
- Determinar la uniformidad entre diferentes lotes producidos de un mismo
medicamento.

Las anteriores, sin embargo, no son las únicas aplicaciones de este ensayo. La
valiosa información que se obtiene al evaluar el desempeño de disolución de
los productos farmacéuticos, como así también la estrecha relación entre dicha
información y el posterior desempeño in vivo del producto, dan lugar a otra
serie de aplicaciones biofarmacéuticas de estos ensayos, las cuales serán
brevemente discutidas al final de este capítulo.

Equipos de disolución
La USP codifica siete aparatos de disolución:
1) Canastillo
2) Paleta rotatoria
3) Cilindro reciprocante
4) Celda de flujo
5) Paleta sobre disco
6) Cilindro rotatorio
7) Disco reciprocante
Los más usados son los equipos 1 y 2, y son los únicos incluidos en la FA VII
Ed. Ambos equipos constan de un baño de agua en el que se sumergen al
menos seis vasos de 1 litro de capacidad, los que contienen el medio de
disolución. Durante el ensayo, la temperatura de dicho baño se fija en 37 ± 0,5
ºC (productos de administración oral). Por otro lado, los equipos poseen un
motor giratorio (velocidad variable entre 25 a 200 rpm, aproximadamente) que
acciona elementos de agitación o vástagos sumergidos en el centro de cada

243
vaso. Los aparatos 1 y 2 se diferencian entre sí por el método de agitación del
medio de disolución contenido en los vasos:
Aparato 1: en el extremo inferior del vástago se coloca un canastillo de acero
inoxidable con malla de 0,12 mm de abertura, en el que se coloca la muestra a
analizar y se sumerge en el medio de disolución hasta 2,5 cm del fondo (Figura
3A).
Aparato 2: utiliza vástagos cuyo extremo inferior tiene forma de paleta (de
acero inoxidable o recubierta de un polímero adecuado, Figura 3B). La muestra
se introduce directamente en los vasos y por gravedad se deposita en el fondo.

A B

Figura 3. Esquemas de los equipos (las medidas son en mm). A: vástago correspondiente al
aparto 1 o canastillo, B: aparato 2 o paleta.

Control del equipo – Calibración

- Comprobar la rectitud del eje, visualmente y/o con una regla.

244
- Examinar el revestimiento de la paleta o del canastillo para detectar
posibles grietas en el mismo.
- Comprobar que la paleta o el canastillo posean las dimensiones y distancias
al eje especificadas.
- Montar la paleta o el canastillo en el equipo y comprobar tanto que su
posición sea centrada como que la distancia al fondo del recipiente sea la
adecuada (25 ± 2 mm).
- Controlar el aparato para garantizar la velocidad de rotación, la que debe
mantenerse dentro de ± 4% del valor especificado durante todo el ensayo.
- Controlar el nivel de vibración de todo el aparato (con un medidor de
vibraciones), y eliminar cualquier fuente de vibración posible.
- Inspeccionar el estado de limpieza (como así también la presencia de
grietas o rayas) de la paleta o el canastillo, y de todas las partes del equipo
que vayan a estar en contacto con el medio de disolución.
- Calibrar periódicamente el sistema con calibradores adecuados, lo que
también se denomina calibración química.

Respecto a este último punto, la USP ofrece dos tipos de calibradores: tabletas
o comprimidos desintegrables (Prednisona 50 mg) y no desintegrables (Ácido
Salicílico 300 mg), los cuales poseen tiempos fijos de disolución bajo
determinadas condiciones experimentales.

Test de disolución

Para el control de calidad de productos orales de liberación inmediata las


farmacopeas indican, en las monografías correspondientes, las condiciones en
las que se debe realizar el test de disolución. Bajo dichas condiciones
experimentales, se ensayan seis unidades del producto en cuestión y, a un
tiempo que también se encuentra especificado en dicha monografía, se toma
una muestra de cada vaso y se cuantifica el principio activo disuelto, el cual
debe haber superado cierto porcentaje de disolución para cumplir con dicho

245
test. Por lo tanto, se trata de un ensayo a un único tiempo, que sólo permite
determinar si el producto evaluado cumple con los requisitos de disolución
establecidos en la monografía correspondiente.
Las condiciones que se encuentran en el apartado correspondiente al test de
disolución en la monografía individual de un producto son las siguientes:
Equipo: típicamente, aparatos 1 o 2.
Temperatura: para productos de administración oral, siempre es 37 ± 0,5 ºC
Medio de disolución: se indica qué medio utilizar y qué volumen del mismo. Si
el medio es una solución buffer, se debe ajustar el pH hasta ± 0,05 unidades
del valor establecido.
Agitación: expresada en rpm
Especificación o tolerancia: se expresa como dos datos. Un valor Q, que es un
%Disuelto (sobre valor declarado –SVD-) a un tiempo dato t (tiempo al que se
debe alcanzar dicho %D.
Tipo de muestreo: en la mayoría de los casos el muestreo es individual, es
decir se toma una muestra de cada vaso y se analizan por separado,
obteniéndose seis valores de %Disuelto (%D). Pero en algunos casos las
farmacopeas pueden requerir muestreo unificado, según el cual las seis
muestras obtenidas se juntan para formar una única muestra que se analiza.
Método analítico: empleado para la determinación del %D en las alícuotas
extraídas del equipo de disolución.

Por lo tanto, la realización experimental de un test de disolución consiste en los


siguientes pasos:
 Preparación del equipo: se coloca el volumen correspondiente de medio de
disolución, previamente desgasificado, en los vasos del equipo, se inicia la
agitación a la velocidad estipulada en la monografía correspondiente y se
espera a que el sistema alcance la temperatura del ensayo, 37± 0,5 ºC.
 Se pesan los comprimidos o unidades de dosificación a ensayar
 Una vez alcanzada la temperatura, se coloca cada comprimido en un vaso,
a la vez que se comienza a cronometrar el tiempo. Generalmente se deja

246
una diferencia de algunos segundos entre vaso y vaso, de manera de tener
tiempo de muestrear posteriormente.
 Al cumplirse el tiempo establecido en la monografía, se extrae una muestra
de cada vaso (con la diferencia de tiempo con que se colocaron los
comprimidos) de aproximadamente 5 o 10 ml (exactamente medidos).

Las muestras se deben tomar a una altura equivalente a la mitad de


distancia entre la superficie del medio de disolución y el borde superior
de la paleta o canastilla, y a no menos de 10 mm de la pared del vaso.

 Se deben separar todas las partículas sólidas que pudieran estar presentes
en las muestras, por lo que las mismas deben ser filtradas o centrifugadas.
En el caso de filtración, se debe verificar previamente (durante la validación)
que el sistema de filtración no adsorba al principio activo ni libere sustancia
al filtrado.
 Se analizan las muestras así tratadas por un método adecuado (UV, HPLC).
Pueden analizarse directamente o previa dilución de las mismas en el
medio de disolución
 Se calcula el porcentaje disuelto en cada una de ellas por comparación de
los resultados obtenidos respecto a una solución de referencia preparada el
mismo día de trabajo.

Lo anterior es válido para la mayoría de los productos orales de liberación


inmediata (LI). Sin embargo, existe otro tipo de productos que requieren
condiciones de disolución especiales:
- Productos de liberación prolongada (LP): sus monografías poseen la misma
información que en el caso de LI, excepto que se debe muestrear a 3, 4 o 5
tiempos, y para cada uno se especifica un valor de Q o rango de Q.
- Productos de liberación retardada con cubierta entérica (LR): las
farmacopeas codifican dos ensayos posibles (Ensayos A o B), ambos con
una etapa ácida inicial (2 hs en HCl) y etapa buffer de 45 min. La diferencia

247
entre ambos ensayos consiste en la forma en que se produce el cambio de
un medio al otro.

Criterios de Aceptación

En el caso de productos LI, y a menos que se especifique de otro modo en la


monografía correspondiente, los requisitos se cumplen si la cantidad de
principio activo disuelto al tiempo especificado cumple el criterio de aceptación
(Tabla 1). En caso que los resultados no se ajusten al límite especificado en
E1, continuar el ensayo con E2 y si no cumple con la exigencia de E2,
proseguir hasta E3. El valor de Q que se encuentra en la tabla es el
especificado en la monografía correspondiente al producto en cuestión. Los
valores de 5, 15 y 25% en la Tabla 1 corresponden a porcentajes SVD, de
modo que estos valores y Q están en los mismos términos.

Unidades
Etapa Criterios de aceptación
ensayadas
E1 6 Cada unidad no debe ser menor de Q + 5%

El promedio de 12 unid.(E1 + E2) debe ser igual o mayor de Q y


E2 6
ninguna unidad menor de Q-15%

El promedio de 24 unid.(E1 + E2+ E3) debe ser igual o mayor de Q,


E3 12 no más de 2 unidades menores de Q-15% y ninguna unidad menor
de Q-25%

Tabla 1. Aceptación para muestreo individual de productos LI

Unidades
Etapa Criterios de aceptación
ensayadas
E1 6 El promedio disuelto debe ser igual o mayor de Q+10

E2 6 El promedio de 12 unid.(E1 + E2) debe ser igual o mayor de Q+5%

E3 12 El promedio de 24 unid.(E1 + E2+ E3) debe ser igual o mayor de Q

Tabla 2. Aceptación para muestreo unificado de productos LI

248
En el caso de productos LP, la monografía correspondiente especificaba 3, 4 o
5 tiempos de muestreo, con sus respectivos valores de Q o rangos de Q
(generalmente, se especifican rangos para los tiempos iniciales e intermedios,
y un valor único de Q para el tiempo final). Los requisitos se cumplen si la
cantidad de principio activo disuelto a cada tiempo especificado cumple el
criterio de aceptación (Tabla 2). Al igual que para productos LI, si los resultados
no se ajusten al límite especificado en E1, se continúa con E2 y si no cumple
con la exigencia de E2, hasta E3.

Eta Unidades
Criterios de aceptación
pa ensayadas

E1 6 Ningún valor individual fuera de los rangos establecidos

El promedio de 12 unid. debe estar dentro del rango establecido, y


ningún valor individual debe representar más del 10% fuera del rango.
E2 6
Al tiempo final, ningún valor debe estar más del 10% por debajo del
límite establecido.

El promedio de 24 unid. debe estar dentro del rango establecido. No


más de 2 unid deben representar más del 10% fuera del rango y
E3 12 ninguna unidad representa más del 20% fuera del rango. Al tiempo
final, no más de 2 deben estar más del 10% por debajo del límite
establecido y ninguna más del 20% por debajo de dicho límite.

Tabla 3. Aceptación para productos LP

En el caso de productos LR, la monografía correspondiente especifica si debe


realizarse el ensayo A o B, como así también la tolerancia para la etapa buffer
del ensayo. Una vez realizado el ensayo completo, los requisitos se cumplen si,
durante la etapa ácida, la cantidad de principio activo disuelto a cada tiempo
especificado cumple el criterio de aceptación presentado en la Tabla 3. Para la
etapa buffer, se aplican los mismos criterios que para productos LI (Tabla 1).

249
Unidades
Etapa Criterios de aceptación
ensayadas
E1 6 Ningún valor individual excede el 10% disuelto

El promedio de 12 unid.(E1 + E2) no es mayor del 10% disuelto y


E2 6
ninguna unidad individual es mayor al 25%

El promedio de 24 unid.(E1 + E2+ E3) no es mayor del 10% disuelto y


E3 12
ninguna unidad individual es mayor al 25%

Tabla 4. Aceptación para la etapa ácida de productos LR

Perfil de disolución

A pesar de que el test de disolución es el ensayo oficial codificado, una única


determinación (único tiempo de muestreo) no permite caracterizar la forma
farmacéutica, y por lo tanto resulta de interés evaluar y comparar perfiles de
disolución: registros del %Disuelto (SVD) en función del tiempo. Además de los
objetivos generales ya mencionados, la obtención de un perfil de disolución
también permite:
- Determinar el orden cinético del proceso de disolución
- Determinar constantes de velocidad del proceso de disolución
- Detectar y cuantificar tiempos de latencia
- Determinar cambios en el proceso de disolución

Los perfiles de disolución se pueden llevar a cabo siguiendo las mismas


condiciones experimentales establecidas para el test de disolución u otras
diferentes, según sea el objetivo. La metodología a seguir es similar a la del
test, con la diferencia de que se toman muestras a varios tiempos (por ejemplo,
5, 15, 30, 45 y 60 minutos) para poder obtener luego la curva de %D vs. tiempo
(figura 4).

250
Figura 4. Perfil de disolución

Por otro lado, el muestreo puede hacerse con o sin reposición, según se
reemplace o no el volumen extraído de cada vaso, a cada tiempo, por un
volumen igual de medio fresco. En el caso de ser con reposición, es necesario
que el equipo cuente con al menos 7 vasos, de manera de disolver las 6
unidades simultáneamente y tener medio fresco para reponer (en iguales
condiciones de agitación y temperatura) en el séptimo vaso.
En cuanto a los cálculos, cuando se cuantifica la concentración del principio
activo disuelto en cada vaso, se debe tener en cuenta que:
- Cuando se calculan los mg encontrados a un tiempo dado, debe sumarse la
masa retirada en las alícuotas tomadas en los tiempos anteriores.
- Si se trata de un perfil sin reposición, los cálculos deben contemplar la
disminución de volumen de los vasos por las sucesivas extracciones de
muestras.

Comparación de perfiles de disolución

Con el aumento de relevancia de los estudios de disolución in vitro de


productos farmacéuticos, al punto de permitir reemplazar a los estudios in vivo
en ciertas circunstancias, aumentó también la discusión acerca de los métodos

251
empleados para comparar dichos datos, como asimismo acerca de qué criterio
de similitud aplicar.
En la década de los 90, aparecieron en la literatura científica numerosas
propuestas de métodos útiles para la comparación de perfiles de disolución.
Estos métodos pueden clasificarse en tres categorías:
 Métodos independientes del modelo
 Métodos estadísticos basados en ANAVA
 Métodos dependientes del modelo

Métodos independientes del modelo

Son aquellos que permiten comparar perfiles de disolución sin necesidad de


ajustar los datos a un modelo o ecuación que los represente. Incluyen, entre
otros, a los métodos matemáticos de cálculo de índices de diferencia/similitud,
como los factores f1 y f2, y también la comparación de parámetros obtenidos a
partir de los perfiles, como el área bajo la curva (ABC) y/o la eficiencia de
disolución (ED).
El más conocido de los métodos empleados para comparar perfiles de
disolución, posiblemente por ser el método actualmente exigido por la mayoría
de los agencias regulatorias de medicamentos, es el factor de similitud f2:

Donde Rt y Tt son los %D promedio al tiempo t. Los mismos autores que


desarrollaron el factor de similitud también desarrollaron el de diferencia, f1:

Los perfiles se consideran similares si el valor del f2 entre ellos es mayor o igual
a 50, y el f1 menor a 15. Requisitos para el cálculo del factor de similitud f2:

252
- Los %D de los dos productos a comparar deben haber sido obtenidos bajo
las mismas condiciones experimentales, y los tiempos de muestreos deben
haber sido los mismos en ambos casos.
- Para el cálculo, se considerarán todos los valores por debajo y sólo uno por
encima del 85% disuelto, como mínimo 3 tiempos sin considerar el cero.
- Para que puedan usarse los %D promedio, el coeficiente de variación (CV)
del primer tiempo considerado debe ser menor al 20%, mientras que para
los tiempos restantes debe ser menor al 10%.
- No es adecuado el uso del factor de similitud f2 en el caso de productos de
rápida o muy rápida disolución (más del 85% disuelto en 15 minutos).

Otro método consiste en calcular el área bajo la curva (ABC), por el método de
los trapecios por ejemplo, y/o la eficiencia de disolución (ED), dada por la
ecuación 10:

Donde %D(t) es el porcentaje disuelto al tiempo t, %Dmax es el máximo disuelto,


correspondiente al último tiempo T, y ABC0-T es el área bajo la curva desde
cero a T. Una vez obtenidos los valores de ABC y ED para cada comprimido
individual de las dos formulaciones que se desean comparar, se deben evaluar
estadísticamente mediante un Análisis de Varianza (ANAVA), e incluso se
puede calcular el intervalo de confianza del 90% para el cociente de medias
(IC90%).

Métodos estadísticos basados en ANAVA

Estos métodos tratan al porcentaje disuelto como variable aleatoria, y la


someten a un análisis de varianza tomando a la formulación como única
variable de clase (monofactorial) y comparando tiempo a tiempo, o
considerando a la formulación y el tiempo (bifactorial) como variables de clase
o factores en forma simultánea, bajo la hipótesis nula de similitud.

253
Sin embargo, su aplicación no es estrictamente correcta ya que se viola la
hipótesis de independencia debido a la correlación entre el %Disuelto y el
tiempo. Y más allá de eso, estos métodos de comparación suelen resultar
sobre-discriminantes, detectando diferencias “estadísticas” en lugar de
“biofarmacéuticas” entre los perfiles que se están comparando.

Métodos dependientes del modelo

Incluyen diferentes formas estadísticas de comparación de perfiles, con el


denominador común de precisar, todas ellas, una etapa previa de modelado de
los datos, de manera de ajustarlos a ecuaciones que describan su evolución
temporal. El criterio de selección del modelo, así como la interpretación de sus
parámetros son desventajas de estos métodos. Luego de ajustados los datos,
éstos pueden compararse de diversas maneras, tales como la prueba T2 de
Hotelling o mediante el método de “regiones de similitud” propuesto por Sathe y
colaboradores.
Algunas de las ecuaciones matemáticas no-lineales más empleadas para el
ajuste de datos fueron de disolución pueden verse en la Tabla 4 a continuación:

A pesar de que se han postulado otros modelos matemáticos para ajustar los
datos de %Disuelto vs. tiempo, los cuatro descriptos en la tabla anterior son los
más utilizados por su mejor ajuste a datos provenientes de formas sólidas de
liberación inmediata.

254
Para ajustar datos experimentales a una ecuación o modelo se trabaja con
programas estadísticos adecuados (Systat, Infostat, etcétera), los que buscan
de manera iterativa los valores de los parámetros de la ecuación que estamos
ensayando que mejor ajustan a los datos experimentales. Luego, una vez que
el programa arroja los valores de los parámetros de cada ecuación para el
mismo conjunto de datos experimentales, se debe elegir entre ellas. Existen
diferentes formas para ello, pero una muy sencilla e informativa consiste en
realizar el test estadístico de Lack of fit (falta de ajuste) a los datos ajustados a
los diferentes modelos, de manera de determinar estadísticamente si el ajuste
es aceptable en todos los casos.
Por último, una vez seleccionada la ecuación a utilizar y calculados los
parámetros de la misma para los dos productos que se desea comparar, dichos
parámetros deben compararse estadísticamente. Para esto también existen
diversas maneras, siempre pertenecientes a la estadística multivariada
(estadístico T2 de Hotelling, método de regiones de similitud, etcétera), por
tratarse de ecuaciones con al menos dos parámetros, que deben ser
comparados simultáneamente.

Otras aplicaciones del ensayo de disolución

Correlaciones in vitro/in vivo

Este tipo de correlaciones permiten predecir la absorción in vivo del principio


activo a partir de los resultados obtenidos al realizar perfiles de disolución in
vitro. De esa forma, se logran reducir costos y acelerar el desarrollo de
productos farmacéuticos, además de evitar la realización de estudios de BD/BE
en voluntarios humanos.

255
Establecer la similitud entre dos medicamentos

 Entre productos conteniendo el mismo principio activo, en igual dosis y


forma farmacéutica, pero provenientes de distintos laboratorios (es decir,
potenciales equivalentes farmacéuticos).
 Productos del mismo productor que han sufrido algún cambio posterior a su
aprobación: escalado, cambio de composición, de sitio de producción, de
equipamiento, etc.

Sistema de clasificación biofarmacéutica (BCS): bioexenciones o


biowaivers

De acuerdo al Sistema de Clasificación Biofarmacéutica (BCS) todas las


drogas se encuadran en una de cuatro categorías (I, II, III o IV), según sean
altamente solubles y altamente permeables, poco solubles y altamente
permeables, muy solubles y poco permeables o poco solubles y poco
permeables, respectivamente (Figura 4).
En el año 2000 surgió el concepto de “bioexenciones” para denominar a
aquellos productos que podrían ser eximidos de realizar los estudios de BE in
vivo. En su planteo original, las bioexenciones podían ser permitidas para
aquellos productos sólidos de liberación inmediata, destinados a ser
administrados por vía oral, conteniendo drogas pertenecientes a la clase I del
BCS, si se cumplieran los siguientes requisitos: el fármaco no posee estrecho
margen terapéutico y es estable en el tracto gastrointestinal, los excipientes no
afectan la velocidad ni el grado de absorción, y el producto no ha sido diseñado
para su absorción en la cavidad bucal. En esos casos, los perfiles de
disolución in vitro podrían reemplazar a los estudios de BE in vivo.
La justificación de dicha propuesta consiste en que la liberación y disolución del
principio activo en el medio acuoso gastrointestinal y su absorción a través de
las membranas celulares hacia la circulación sistémica son procesos
consecutivos, por lo que si el primero es más lento que el segundo (clases I y II

256
del BCS), la velocidad total del proceso quedará supeditada a la del primero.
Se dice, en ese caso, que la liberación es el factor limitante de la absorción.
Sin embargo, una intensa discusión se ha desarrollado recientemente acerca
de la posibilidad de ampliar los criterios de elegibilidad de bioexenciones. En
nuestro país, la Disp. 758/2009 establece los criterios para eximir de la
realización de estudios de BE a determinados medicamentos sólidos orales de
liberación inmediata: en base al BCS y en función de los resultados de ensayos
de disolución, son candidatos a bioexenciones aquellos productos conteniendo
principios activos considerados de riesgo intermedio (según la clasificación
original establecida en la Disp. 3185/99) cuando los mismos pertenecen a las
clases I o III del BCS.

D/S = 250 ml

Permeabilidad
 Solubles  Solubles
FA = 90%

 Permeables  Permeables

 Solubles  Solubles
 Permeables  Permeables

Solubilidad

Figura 4. Representación esquemática del Sistema de Clasificación Biofarmacéutica (BCS).


FA: fracción absorbida. D/S: relación dosis/solubilidad

Preguntas Orientadoras

1. ¿Por qué es importante el estudio de la disolución de los principios


activos sólidos?
2. Principal modelo propuesto para explicar el proceso de disolución y
ecuaciones derivadas.

257
3. ¿Logran dichas expresiones describir satisfactoriamente la disolución
de medicamentos sólidos?
4. Factores que influyen sobre la velocidad de disolución. Clasificación,
breve justificación del efecto de cada uno de ellos.
5. Diferencia entre test y perfil de disolución. Principales objetivos de
cada uno.
6. ¿Por qué es importante realizar estos ensayos en forma normatizada,
respetando las condiciones codificadas en las farmacopeas?
7. ¿Cuáles son los equipos de disolución que codifica la FA VII Ed?
Descríbalos brevemente.
8. Principales métodos que existen para comparar perfiles de disolución.
¿Cuál es el más utilizado? Describa su forma de cálculo y análisis de
los resultados.
9. Otras aplicaciones del estudio de la disolución de productos
farmacéuticos. ¿Qué entiende por equivalentes farmacéuticos?
10. ¿Qué son las bioexenciones? ¿En qué se basan y cuál es su
relación con el ensayo de disolución?

Test de Autoevaluación

1. ¿Qué ensayo de calidad le realizaría a comprimidos para evaluar in


vitro su biodisponibilidad?
(a) Ensayo de friabilidad
(b) Ensayo de uniformidad de dosis
(c) Ensayo de estabilidad
(d) Ensayo de disolución

2. El Sistema de Clasificación Biofarmacéutica, clasifica las drogas


según:
(a) Su margen terapéutico
(b) Sus características de solubilidad y permeabilidad

258
(c) Su velocidad de disolución
(d) Su acción farmacológica

3. Si un principio activo se considera perteneciente a la clase II del BCS,


el factor limitante de su absorción será:
(a) Su liberación de la forma farmacéutica
(b) Su solubilidad
(c) Su permeabilidad a través de las membranas biológicas.
(d) Todos los anteriores.

4. Si finalizado un ensayo de disolución los resultados obtenidos para los


6 comprimidos fueron 55, 62, 68, 75, 77 y 80 %D, y el valor de Q
especificado en la monografía correspondiente era de 75%, ¿qué
medidas tomaría ud. a continuación:
(a) Aprobaría el lote por cumplir con el test de disolución en E1
(b) Ensayaría 6 comprimidos más para evaluar si cumple la E2 de
dicho test
(c) Ensayaría directamente 18 comprimidos más para evaluar si
cumple la E3.
(d) Descartaría el lote sin realizar más ensayos.

5. Si al comparar los perfiles de disolución de dos productos similares se


obtiene que los mismos cumplen con el criterio de similitud del factor
f2 (>50) pero al comparar estadísticamente sus ABC las mismas
resultan diferentes, ¿cómo cree ud. que dichos productos resultaría
si se ensayan in vivo?
(a) Bioequivalentes
(b) Equivalentes en términos de cantidad pero no de velocidad
(c) Equivalentes en términos de velocidad pero no de cantidad
(d) Ninguna de las anteriores

259
Bibliografía

1. Shargel L, Yu ABC. (1993) Applied biopharmaceutics and


pharmacokinetics. Prentice-Hall International, 3rd ed: London, 625.
2. FDA/CDER. (2003) Guidance for Industry: Bioavailability and
Bioequivalence Studies for Orally Administered Drug Products - General
Considerations.
3. ANMAT. (1999) Requerimiento de Estudios de Bioequivalencia,
Disposición 3185 (disponible en http://www.anmat.gov.ar/webanmat/
Legislacion/Medicamentos/Disposicion_ANMAT_3185-1999.pdf).
4. EMEA/CPMP. (2001) Note for guidance on the investigation of
bioavailability and bioequivalence.
5. Cárcamo EC. (1981) Cinética de Disolución de Medicamentos. Santiago,
Chile.
6. Dokoumetzidis A, Macheras P. (2006) A century of dissolution research:
from Noyes and Whitney to the biopharmaceutics classification system. Int J
Pharm. 321: 1-11.
7. FDA/CDER. (1997) Guidance for Industry: Dissolution testing of
immediate release solid oral dosage forms.
8. Arancibia A, Pezoa R, (1992) Universidad de Chile. Facultad de Ciencias
Químicas y Farmacológicas. Biodisponibilidad de medicamentos: Simposio
Internacional I. Universidad de Chile, Facultad de Ciencias Químicas y
Farmacéuticas, Departamento de Ciencias y Tecnología Farmacéuticas,
Santiago de Chile, 309 p.
9. FDA/CDER. (2000) Guidance for Industry: Waiver of In Vivo
Bioavailability and Bioequivalence studies for immediate-release solid oral
dosage forms based on a Biopharmaceutics Classification System.
10. Sathe PM, Tsong Y, Shah VP. (1996) In-vitro dissolution profile
comparison: statistics and analysis, model dependent approach. Pharm Res.
13: 1799-1803.

260
11. O'Hara T, Dunne A, Butler J, Devane J. (1998) A review of methods used
to compare dissolution profile data. Pharmaceutical Science & Technology
Today 1: 214-223.
12. Saranadasa H. (2001) Defining similarity of dissolution profiles through
Hotteling's T2 statistic. Pharm Technol. 25: 46-54.
13. Costa P, Sousa Lobo JM. (2001) Modeling and comparison of dissolution
profiles. Eur J Pharm Sci. 13: 123-133.
14 Doménech Berrozpe J, Martínez Lanao J, Plá Delfina JM. (1997)
Biofarmacia y farmacocinética. Vol. 1, Farmacocinética. Síntesis, Madrid, 446p.
15. Amidon GL. Lennernas H, Shah VP, Crison JR. (1995) A theoretical
basis for a biopharmaceutic drug classification: the correlation of in vitro drug
product dissolution and in vivo bioavailability. Pharm Res. 12: 413-420.

261
CAPITULO 11
UNIFORMIDAD DE UNIDADES DE DOSIFICACIÓN
Susana Mabel Gómez

Introducción

El ensayo de uniformidad de unidades de dosificación, es uno de las pruebas


que garantiza la calidad de un producto terminado. Permite verificar que cada
unidad de dosificación de un lote en estudio, contenga una cantidad de
principio activo dentro de un intervalo estrecho alrededor de la cantidad
declarada, y así, inferir la homogeneidad del mismo. Se entiende como
“unidades de dosificación” las formas farmacéuticas que contienen una única
dosis o parte de una dosis de un fármaco en cada unidad.

Métodos de Uniformidad de Unidades de Dosificación

La uniformidad de las unidades de dosificación se puede demostrar mediante


uno de los siguientes métodos:
 Uniformidad de peso
 Uniformidad de contenido
Para la realización de ambos métodos, se seleccionan 30 unidades de
dosificación y en una primera etapa se ensayan 10.
En el método de uniformidad de peso, a partir del resultado obtenido en el
ensayo de valoración, en el cual se ha utilizado un método analítico validado y
apropiado, y el peso individual de las unidades ensayadas, se calculan los
contenidos en cada una de las mismas.
En el método de uniformidad de contenido, se valoran individualmente las
unidades de dosificación, utilizando un método analítico validado y apropiado.
Los criterios a tener en cuenta para aplicar el método de uniformidad de peso,
varían de acuerdo a la Farmacopea que se considere. El método de

262
uniformidad de contenido puede aplicarse en todos los casos. En cada método,
los criterios de aceptación dependen de la farmacopea que se tome como
referencia. A continuación se describen los métodos y sus correspondientes
criterios de aceptación, de acuerdo a Farmacopea Argentina VII Ed. y
Farmacopea de Estados Unidos (USP 35).

1. Farmacopea Argentina VII Ed.


Método Uniformidad de peso: este método puede aplicarse cuando el producto
a ensayar contiene 50 mg o más de un principio activo, el cual corresponde al
50 % o más del peso de la unidad.
Para determinar la uniformidad de unidades de dosificación mediante este
método, se deben seleccionar no menos de 30 unidades. El procedimiento
varía según la forma farmacéutica del lote en estudio.
 Comprimidos y Comprimidos con cubierta fílmica: Se pesan
exactamente y en forma individual diez comprimidos. A partir del
resultado de la valoración obtenido según se indica en la monografía
correspondiente se calcula el contenido de principio activo en cada uno
de los diez comprimidos, asumiendo que dicho principio activo está
uniformemente distribuido.
 Cápsulas rígidas: Se pesan exactamente y en forma individual diez
cápsulas rígidas intactas, teniendo cuidado de conservar la identidad de
cada unidad. Se vacía el contenido de cada cápsula. Se pesan
exactamente las cápsulas vacías individualmente y se calcula para cada
cápsula el peso de su contenido, restando al peso original de la misma
el peso de la cápsula vacía. Se calcula el contenido de principio activo
en cada una de las diez cápsulas, empleando el resultado de la
valoración obtenido según se indica en la monografía correspondiente,
asumiendo que dicho principio activo está uniformemente distribuido.
 Cápsulas blandas: Se pesan exactamente y en forma individual diez
cápsulas intactas para obtener el peso original de cada una, teniendo
cuidado de conservar la identidad de cada cápsula. Se corta las
cápsulas y se extrae el contenido mediante el lavado con un solvente

263
apropiado. Se deja que el solvente ocluido en las cápsulas se evapore a
temperatura ambiente durante aproximadamente 30 minutos; evitando
absorción o pérdida de humedad. Se pesan exactamente y en forma
individual las cápsulas vacías. Se calcula el contenido neto de cada
cápsula, restando al peso original el peso de cada unidad vacía. Se
calcula el contenido de principio activo en cada una de las diez cápsulas,
empleando el resultado de la valoración obtenido según se indica en la
monografía correspondiente, asumiendo que dicho principio activo está
uniformemente distribuido.
 Sólidos (incluyendo sólidos estériles): se procede de la misma forma que
para cápsulas rígidas.
 Soluciones orales y jarabes: se procede de la misma forma que para
cápsulas rígidas.
 Soluciones orales y jarabes – Se pesa exactamente y en forma
individual la cantidad de líquido que drena en no más de 5 segundos de
diez unidades. Si fuera necesario, tener en cuenta el volumen
equivalente después de determinar la densidad aparente. Se calcula el
contenido de principio activo en cada una de las diez unidades,
empleando el resultado de la valoración obtenido según se indica en la
monografía correspondiente.

Método Uniformidad de contenido: este método debe aplicarse cuando las


unidades de dosificación contienen el principio activo en una proporción menor
a la mencionada en el método de Uniformidad de peso. Es decir, productos que
no cumplen con alguna de las dos condiciones exigidas para Uniformidad de
peso y, en todos los casos, para comprimidos recubiertos (excepto cubierta
fílmica), sistemas transdérmicos, suspensiones en envases unitarios o en
cápsulas blandas, aerosoles dosificadores y supositorios.
Para determinar la uniformidad de unidades de dosificación mediante este
método, se deben seleccionar no menos de treinta unidades. El procedimiento
consiste en valorar diez unidades individualmente según se indica en la

264
valoración, a menos que se especifique de otro modo en el Procedimiento para
uniformidad de contenido en la monografía correspondiente.
Cuando se especifique un Procedimiento especial para uniformidad de
contenido en la monografía correspondiente, se deben hacer las correcciones
necesarias de los resultados obtenidos.

Criterios de aceptación:
Se aplican estos criterios, a menos que se especifique de otro modo en la
monografía correspondiente.
Criterio A: Si el promedio de los límites especificados en la definición de
potencia (Xp) de cada producto en la monografía correspondiente
(especificación para el ensayo de valoración) es 100,0 % o menos. Xp < 100.
Comprimidos, comprimidos recubiertos, comprimidos con cubierta fílmica,
supositorios, suspensiones, soluciones orales y jarabes, sólidos y sólidos
estériles para uso parenteral: a menos que se especifique de otro modo en la
monografía correspondiente, los requisitos para la uniformidad se cumplen si la
cantidad de principio activo en cada una de las diez unidades de dosificación
(xi) determinada empleando el método de Uniformidad de peso o Uniformidad
de contenido se encuentra dentro del intervalo de 85,0 a 115,0% del valor
declarado y la desviación estándar relativa es menor o igual a 6,0%.
85,0% SVD < xi < 115,0% SVD y CV< 6%
Si una unidad está fuera de dicho intervalo y ninguna unidad está fuera de 75,0
a 125,0% del valor declarado, si la desviación estándar relativa es mayor a
6.0% o si ambas condiciones prevalecen, ensayar veinte unidades adicionales.
Los requisitos se cumplen si no más de una unidad de las treinta unidades de
dosificación está fuera del intervalo de 85,0 a 115,0% del valor declarado,
ninguna unidad está fuera del intervalo de 75,0 a 125,0% del valor declarado y
la desviación estándar relativa no es mayor a 7.8%.
75,0% SVD < xi < 125,0% SVD y CV< 7,8%
Cápsulas, sistemas transdérmicos y soluciones para inhalación: a menos que
se especifique de otro modo en la monografía correspondiente, los requisitos
para la uniformidad se cumplen si la cantidad de principio activo en no menos

265
de nueve de las diez unidades de dosificación determinada empleando el
método de Uniformidad de peso o Uniformidad de contenido se encuentra
dentro del intervalo de 85,0 a 115,0 % del valor declarado, ninguna unidad está
fuera del intervalo de 75,0 a 125,0 % del valor declarado y la desviación
estándar relativa es menor o igual a 6,0 %.
Si dos o tres unidades de dosificación están fuera del intervalo de 85,0 a 115,0
% del valor declarado, pero no fuera del intervalo de 75,0 a 125,0 % del valor
declarado, si la desviación estándar relativa es mayor a 6,0 % o si ambas
condiciones prevalecen, ensayar veinte unidades adicionales. Los requisitos se
cumplen si no más de tres unidades de las treinta unidades de dosificación
están fuera del intervalo de, 85,0 a 115,0 % del valor declarado, ninguna
unidad está fuera del intervalo de 75,0 a 125,0 % del valor declarado y la
desviación estándar relativa no es mayor a 7,8 %.
Aerosoles dosificadores: a menos que se especifique de otro modo en la
monografía correspondiente, los requisitos para la uniformidad se cumplen si la
cantidad de principio activo liberado en no más de una de las diez unidades de
dosificación, determinada según el método de Uniformidad de contenido cae
fuera del intervalo de 75,0 a 125,0 % del valor declarado y ninguna unidad está
fuera del intervalo de 65,0 a 135,0 % del valor declarado. Si dos o tres
unidades de dosificación se encuentran fuera del intervalo de 75,0 a 125,0 %
del valor declarado, pero no fuera del intervalo de 65,0 a 135,0 % del valor
declarado, ensayar veinte unidades adicionales. Los requisitos se cumplen si
no más de tres unidades de las treinta unidades de dosificación están fuera del
intervalo de 75,0 a 125,0 % del valor declarado y ninguna unidad está fuera del
intervalo de 65,0 a 135,0 % del valor declarado.
NOTA: una unidad de dosificación se define como el líquido obtenido
accionando la válvula, tantas veces como se indique en el rótulo, para obtener
la dosis recomendada. Seguir las indicaciones de uso indicadas en el rótulo.
Para la obtención de la unidad de dosificación del inhalador, proceder según se
indica en el ensayo para Uniformidad de contenido de la dosis en <390>.
Ensayos farmacéuticos para aerosoles

266
Criterio B: Si el promedio de los límites especificados en la definición de
potencia de cada producto (Xp) en la monografía correspondiente
(especificación para el ensayo de valoración) es mayor de 100,0 %. Xp > 100
Debemos considerar las siguientes tres opciones, a saber:
(1) Si el valor del promedio de las unidades de dosificación ensayadas (X) es
100 o menos, X < 100, los requisitos son como en A). Este criterio no es de
Farmacopea pero es de uso habitual.
(2) Si el valor del promedio de las unidades de dosificación ensayadas (X) es
mayor o igual al promedio de los límites especificados en la definición de
potencia en la monografía correspondiente (Xp), X > Xp, los requisitos son los
descriptos en (A), excepto que las palabras valor declarado se reemplazan por
las palabras "valor declarado multiplicado por el promedio de los límites
especificados en la definición de potencia en la monografía correspondiente
dividido 100". Los intervalos resultantes son:
[85,0 . Xp/100 - 115.0 . Xp/100]
[75,0 . Xp/100 - 125.0 . Xp/100]

(3) Si el valor promedio de las unidades de dosificación ensayadas (X) está


entre 100 % y el promedio de los límites especificados en la definición de
potencia en la monografía correspondiente (Xp), 100 < X < Xp, los requisitos
son los descriptos en (A), excepto que las palabras valor declarado se
reemplazan por las palabras "valor declarado multiplicado por el valor promedio
de las unidades de dosificación ensayadas (expresado como porcentaje del
valor declarado) dividido 100". Los intervalos resultantes son:
[85,0 . X/100 - 115,0 . X/100]
[75,0 . X/100 - 125,0 . X/100]

2. Farmacopea de Estados Unidos -USP 35 (armonizado con los textos de


Farmacopea Europea y Farmacopea Japonesa).
Método Uniformidad de peso: este método puede aplicarse para las siguientes
formas farmacéuticas:
 Soluciones contenidas en envases de dosis única y en cápsulas blandas

267
 Sólidos (incluidos los polvos, gránulos y sólidos estériles) envasados en
envases unitarios y que no contengan sustancias activas o inactivas
agregadas.
 Sólidos (incluidos los estériles) envasados en envases unitarios, con o
sin sustancias activas o inactivas agregadas, que hayan sido preparados
por liofilización a partir de soluciones verdaderas en sus envases finales
y que declaran este método de preparación
 Cápsulas duras, tabletas sin cubierta o tabletas recubiertas con películas
que contengan 25 mg o más de un fármaco que corresponda al 25% o
más, en peso, de la unidad de dosificación o, en el caso de cápsulas
duras, el contenido de las cápsulas, excepto que se demuestre la
uniformidad de otros fármacos presentes en proporciones menores en
cumplimiento de los requisitos de uniformidad de contenido.
En este método la valoración del/los principio/s activo/s se realiza, en una
muestra representativa del lote en estudio utilizando un método analítico
apropiado. El resultado se expresa en porcentaje de la cantidad declarada. Se
asume que la concentración del principio activo en la unidad de dosificación es
uniforme. Se seleccionan no menos de 30 unidades de dosificación. El
procedimiento varía según la forma farmacéutica, a saber:
Tabletas sin cubierta o recubiertas con película: se pesan con exactitud 10
unidades individualmente. Se calcula el contenido, expresado como porcentaje
de la cantidad declarada, a partir del peso de la tableta individual y del
resultado de la valoración. Se calcula el valor de aceptación.
Cápsulas duras: se pesan con exactitud 10 unidades individualmente, teniendo
cuidado de preservar la identidad de cada una de ellas. Se retira el contenido
de cada cápsula por un medio adecuado. Se pesan individualmente con
exactitud las cubiertas vacías y se calcula para cada cápsula, el peso neto de
su contenido. Luego, el contenido de principio activo de cada cápsula a partir
del peso neto del contenido de la cápsula individual y del resultado de la
valoración, y por último, el valor de aceptación.
Cápsulas blandas: se pesan con exactitud 10 cápsulas intactas
individualmente, teniendo cuidado de preservar la identidad de cada una de

268
ellas. Se cortan y abren las mismas con ayuda de un elemento cortante seco,
limpio y adecuado y se retira el contenido lavando con un disolvente adecuado.
Se espera que el disolvente ocluido se evapore de las cubiertas a temperatura
ambiente por 30 minutos aproximadamente. Se pesan las cubiertas y se
calcula el contenido neto. Luego, el contenido de principio activo en cada
cápsula a partir del peso neto del contenido de la cápsula individual y del
resultado de la valoración, y por último, el valor de aceptación.
Formas farmacéuticas sólidas diferentes de tabletas y cápsulas: se procede del
mismo modo que para cápsulas duras.
Formas farmacéuticas líquidas: se pesan con exactitud la cantidad de líquido
que se retira de cada uno de 10 envases individuales en condiciones normales
de uso. Se calcula el contenido de principio activo en cada envase a partir de la
masa de producto retirada de los envases individuales y del resultado de la
valoración, y luego, el valor de aceptación.

Método Uniformidad de contenido


Se seleccionan no menos de 30 unidades y se procede según la forma
farmacéutica, a saber:
Formas farmacéuticas sólidas: se valoran 10 unidades individualmente usando
un método analítico apropiado. Se calcula el valor de aceptación.
Formas farmacéuticas líquidas o semisólidas: se valoran 10 unidades
individualmente usando un método analítico apropiado. Se realiza la valoración
sobre la cantidad de material bien mezclado que se retira de un envase
individual en condiciones normales de uso y se expresan los resultados como
la dosis entregada. Se calcula el valor de aceptación.

Cálculo del valor de aceptación:


El valor de aceptación (VA) se calcula a partir de la siguiente ecuación
VA= M – X + ks (Ec. 1)
M: valor de referencia que toma distintos valores (ver más adelante)
X: media de los contenidos individuales, expresados como Porcentaje Sobre
Valor Declarado (%SVD)

269
k: constante de aceptabilidad. Toma distintos valores según la cantidad de
unidades ensayadas.
si n=10, k=2,4
si n=30, k=2,0
n: número de unidades ensayadas
s: desviación estándard de la muestra.
Caso 1: Se aplica cuando T es  101,5% .
(a) Si 98,5%  X  101,5% M = X y VA = k s
(b) Si X < 98,5% M = 98,5% y VA = 98,5 - X  + k s
(c) Si X > 101,5% M = 101,5% y VA = X – 101,5  + k s
Caso 2: Se aplica cuando T es > 101,5%
(a) Si 98,5%  X  T M = X y VA = k s
(b) Si X < 98,5% M = 98,5% y VA = 98,5 - X  + k s
(c) Si X > T M = T y VA = X – T  + k s
Donde T corresponde al contenido deseado por unidad de dosificación al
momento de la fabricación, expresado como porcentaje de la cantidad
declarada. A menos que se indique de otro modo, T es 100% o es el contenido
deseado aprobado por el fabricante por unidad de dosificación.

Criterios de aceptación
Se cumple el ensayo de uniformidad de unidades de dosificación si:
 El valor de aceptación de las primeras 10 unidades ensayadas es menor
o igual a L1%. (primera etapa)
Si es mayor, se deben analizar 20 unidades más y calcular el nuevo valor de
aceptación Se cumple con los requisitos si:
 El valor de aceptación de las 30 unidades es menor o igual que L1, y
 El contenido individual de principio activo de cada una de las unidades
de dosificación está dentro del intervalo [1 + (0,01.L2)]M (segunda
etapa) donde L1=15 y L2=25

270
Preguntas Orientadoras

1. Indique el objetivo del ensayo de Uniformidad de Unidades de


Dosificación
2. describa los métodos mediante los cuales se puede verificar la
Uniformidad de Unidades de Dosificación
3. Indique los criterios en los que se basa la aplicación de los métodos
descriptos en la pregunta anterior
4. En qué se basan los criterios de aceptación del Ensayo de
Uniformidad de Unidades de Dosificación de Farmacopea Argentina
VII Ed
5. Cómo se calcula el valor de aceptación según USP 35 y cuáles son
los criterios de aceptación?

Test de Autoevaluación

1. El ensayo de uniformidad de unidades de dosificación es una prueba


de calidad para:
a) materia prima
b) producto terminado
c) materia prima y producto terminado
2. El ensayo de Uniformidad de Unidades de Dosificación permite:
a) verificar que cada unidad de dosificación de un lote en estudio,
contenga una cantidad de principio activo dentro de un
intervalo estrecho alrededor de la cantidad declarada
b) inferir la homogeneidad de cada unidad de dosificación de un
lote
c) verificar que cada unidad de dosificación de un lote en estudio,
contenga una cantidad de principio activo dentro de un
intervalo estrecho alrededor de la cantidad declarada y así
inferir la homogeneidad del mismo

271
3. El ensayo de Uniformidad de Unidades de Dosificación se puede
demostrar mediante:
a) El método de uniformidad de peso o de contenido, según
corresponda
b) El ensayo de disolución
c) El método de los ceros cruzados

4. Los contenidos de principio activo en las unidades de dosificación


ensayadas, se calculan valorando individualmente cada una de ellas
en
a) el método de uniformidad de peso
b) el método de uniformidad de contenido
c) en ambos métodos

5. El método de Uniformidad de peso puede aplicarse cuando el


producto a ensayar contiene 50 mg o más de un principio activo el
cual corresponde al 50 % o más del peso de la unidad
a) según USP 35
b) según FA VII Ed
c) según Farmacopea Japonesa

6. El método de Uniformidad de peso puede aplicarse cuando el


producto a ensayar contiene 25 mg o más de un principio activo el
cual corresponde al 25 % o más del peso de la unidad
a) según USP 35
b) según FA VII Ed
c) según Farmacopea Japonesa

7. Según FA VII Ed, si el promedio de los límites especificados en la


definición de potencia de cada producto en la monografía
correspondiente es 100,0 % o menos, se aplica:
a) Criterio A

272
b) Criterio B
c) Criterio C
8. Según FA VII Ed Si el promedio de los límites especificados en la
definición de potencia de cada producto en la monografía
correspondiente es mayor de 100,0 %, se aplica:
a) Criterio A
b) Criterio B
c) Criterio C

9. Según USP 35, el criterio de aceptación para las primeras 10


unidades ensayadas exige que
a) VA <L1%
b) VA>L1%
c) VA <L2%
d) VA <L2%

10. Según USP 35, el criterio de aceptación para la segunda etapa,


exige que
a) VA <L2%
b) VA>L1%
c) VA <L1% y el contenido individual de principio activo de cada
una de las unidades de dosificación esté dentro del intervalo
[1 + (0,01.L2)]M

Bibliografía

1. Ministerio de Salud – ANMAT. Farmacopea Argentina. VII ed. (2003) Buenos


Aires.
2. Farmacopea de los Estados Unidos de América (USP 35) (2011) Rockville.

273
CAPITULO 12
ESTABILIDAD DE DROGAS Y MEDICAMENTOS
María Guillermina Volonté

Introducción

Qué se entiende por estabilidad en términos generales? Es la cualidad de


mantenerse sin peligro de cambiar, caer o desaparecer.
Por ello, cuando hablamos de medicamentos podremos decir que estabilidad
es el grado en el que un medicamento retiene, dentro de límites especificados y
durante todo su período de almacenamiento y utilización, las mismas
propiedades y características que poseía en el momento de la preparación
Y cuál será, entonces, el objetivo de un estudio de estabilidad?
El propósito general de los estudios de estabilidad es proveer evidencia de
cómo la calidad de una materia prima o un medicamento varía con el tiempo
bajo la influencia de factores de naturaleza ambiental tales como temperatura,
humedad, luz, gases atmosféricos y factores relacionados con el medicamento
en sí, como ser los componentes de la formulación y su envase.
Los Estudios de Estabilidad son necesarios para asegurar que una materia
prima o una formulación mantenga su integridad, identidad, potencia, calidad y
pureza, frente a dichos factores, durante el período de vida útil asignado.
Básicamente los objetivos de los estudios de estabilidad son dos:
 Seleccionar las condiciones óptimas de almacenamiento de la materia
prima o del medicamento.
 Establecer la fecha de reanálisis (en el caso de las materias primas) y la
fecha de vencimiento (en el caso de los medicamentos).
Cómo podemos definir Fecha de Vencimiento? Será la fecha proporcionada
por el elaborador, basada en los estudios de estabilidad del producto
farmacéutico, después de la cual el mismo no debe emplearse. El producto
debe cumplir durante este período con las especificaciones dadas en
Farmacopea Argentina. (FA VII ed.)

274
Es decir, será la fecha en la que se considera terminado el período de vida útil
de las materias primas o los medicamentos, no pudiendo asegurarse de allí en
más que una u otra mantengan las características de eficacia (potencia,
biodisponibilidad) y seguridad originales, así como tampoco sus propiedades
físicas o sus características organolépticas.
Qué tipos de estabilidad podemos definir?

Condiciones que debe mantener el


Tipo de estabilidad producto a lo largo de la vida útil
Cada ingrediente activo retiene su identidad
Química química y la potencia indicada, dentro de los
límites de las especificaciones.
Se mantienen las propiedades físicas
indicadas originalmente, incluyendo
Física
apariencia, palatabilidad, uniformidad y
disolución.
Son retenidas, según corresponda, la
esterilidad o la resistencia al crecimiento
Microbiológica
microbiano. Los agentes antimicrobianos
presentes retienen su efectividad.
Terapéutica El efecto terapeútico permanece invariante.
No hay incremento significativo en la
Toxicológica
toxicidad.

Tabla 1. Tipos y condiciones de estabilidad

En los estudios de estabilidad la materia prima o la formulación se colocan en


un envase adecuado (el envase en el cual serán comercializadas) y son
almacenadas bajo condiciones normales y extremas. A intervalos adecuados
se ensaya la potencia del producto mediante un método indicativo de
estabilidad, validado y se observa si han aparecido cambios físicos. Cuando
corresponde, concluido el tiempo que dura el estudio de estabilidad, deben
ensayarse asimismo la esterilidad, la resistencia al crecimiento microbiano, la
toxicidad y la biodisponibilidad (por lo general se acepta que si el medicamento
cumple con el test de disolución la biodisponibilidad se ha mantenido).
Cabe mencionar que las condiciones en que se llevan a cabo los estudios de
estabilidad dependen de la región climática en la que la materia prima o el

275
medicamento serán utilizados. Se considera que el mundo se encuentra
dividido en cuatro zonas climáticas, que se especifican en la tabla siguiente,
perteneciendo la Argentina a la Zona II.

Zona climática Definición Condiciones de almacenamiento

I Clima templado 21 ˚C – 45 % humedad relativa

II Clima subtropical y mediterráneo 25 ˚C – 60 % humedad relativa


III Clima cálido y seco 30 ˚C – 35 % humedad relativa
IV Clima cálido y húmedo 30 ˚C – 45 % humedad relativa

Tabla 2. Zonas climáticas y condiciones de almacenamiento

A continuación se presentan las definiciones de la terminología utilizada


habitualmente para referir las condiciones en las que debe almacenarse una
droga o un medicamento.
 Freezer: cualquier temperatura mantenida termostáticamente entre -25 y
-10˚C.
 Frío: cualquier temperatura que no exceda los 8˚C.
 Heladera o refrigerador: se refiere a un lugar en el que la temperatura se
mantiene termostáticamente entre los 2 y los 8˚C.
 Fresco: cualquier temperatura entre 8 y 15˚C.
 Temperatura ambiente: es la temperatura del área de trabajo.
 Temperatura ambiente controlada: es la temperatura mantenida
termostáticamente entre los 20 y los 25˚C.
 Cálido: cualquier temperatura entre los 30 y los 40˚C.

Tipos de estudios de estabilidad

 Estudios de degradación forzada: Sirven para establecer posibles rutas de


degradación de la molécula de principio activo y los productos de
degradación más probables. Esto reviste especial importancia, ya que es
necesario conocer los productos de degradación para validar el método

276
analítico utilizado. Pueden realizarse sobre un único lote de materia prima o
producto terminado, y utilizar condiciones más drásticas que las empleadas
en un estudio de estabilidad acelerado (por ej. temperaturas más altas).
 Estudios de estabilidad acelerados: Diseñados para aumentar la velocidad
de degradación química y la velocidad de cambio en las propiedades físicas
de una sustancia o producto, empleando condiciones de almacenamiento
extremas. El estudio de estabilidad acelerado es optativo, excepto cuando
se desee realizar la presentación del producto medicamentoso ante la
autoridad sanitaria previamente a la finalización del estudio de estabilidad a
largo plazo. En este caso los resultados provisorios del estudio de
estabilidad a largo plazo deben acompañarse de por lo menos seis meses
de estudio acelerado. Se requiere la evaluación de las características de la
materia prima o producto por lo menos a tres tiempos distintos. Si en la
determinación del tercer tiempo se observa un cambio significativo
inminente, debe determinarse un cuarto tiempo. Si el estudio de estabilidad
acelerado da lugar a un cambio significativo, debe procederse a realizar un
estudio de estabilidad intermedio. Se considera cambio significativo a la
pérdida de 5 % de potencia; aparición de cualquier producto de degradación
que exceda los límites establecidos; valores de pH fuera de los límites
especificados; resultado del ensayo de disolución fuera de los límites
especificados; incumplimiento por parte del producto de las características
de apariencia y propiedades físicas tales como color, separación de fases,
etc.
El estudio de estabilidad acelerado se emplea para:
 Determinar los parámetros cinéticos de los procesos de degradación.
 Predecir la vida útil del producto farmacéutico en condiciones normales de
almacenamiento.
 Evaluar el impacto de desviaciones de corta duración con respecto a las
condiciones declaradas en el rótulo, como suele ocurrir durante el
transporte y distribución.
En la tabla siguiente se incluyen las condiciones de los diferentes estudios de
estabilidad acelerados según la materia prima o el medicamento estén

277
destinados para almacenaje a temperatura ambiente controlada (25˚C), en
heladera o en freezer:

Almacenaje Temperatura Humedad relativa Tiempo


Temperatura
ambiente 40ºC ± 2 ºC 75% ± 5% 6 meses
controlada
Heladera 25ºC ± 2 ºC 60% ± 5% 6 meses
Freezer 5ºC ± 3 ºC - 6 meses

Tabla 3. Condiciones de los estudios de estabilidad

 Estudios de estabilidad intermedios: Se realizan en el caso de que el


estudio de estabilidad acelerado dé lugar a un cambio significativo. Los
estudios de estabilidad intermedios deben abarcar, como mínimo, doce
meses y exigen por lo menos cuatro determinaciones en el tiempo. Cuando
la materia prima o el medicamento se destine a almacenaje a 25ºC, las
condiciones especificadas para el estudio de estabilidad intermedio serán
de 30ºC ± 2ºC, 60% ± 5% HR. Junto a los estudios de estabilidad
acelerados, permiten establecer el impacto de desviaciones de corta
duración en las condiciones ambientales con respecto a las condiciones
declaradas en el rótulo.

 Estudios de estabilidad a largo plazo, natural, en tiempo real o estudios de


estabilidad en estantería: La duración de este estudio y las condiciones de
almacenamiento deben ser suficientes para cubrir la distribución,
almacenamiento y período de uso subsiguiente. En el caso de productos
que deben ser reconstituidos se deben establecer las condiciones de
almacenamiento y las correspondientes fechas de vencimiento para el
producto antes y después de ser reconstituido. La frecuencia de
determinaciones en los estudios a largo plazo será -como mínimo- la
siguiente: cada tres meses en el primer año, cada seis meses en el
segundo año y cada doce meses luego del segundo año. Para la

278
aprobación del producto medicamentoso para su comercialización, el
estudio de estabilidad deberá tener, como mínimo, en el momento de
presentación, doce meses de estabilidad natural y seis meses de
estabilidad acelerada, de lo contrario el producto no podrá ser presentado
ante las autoridades sanitarias para su evaluación. Mientras que los
estudios de estabilidad acelerados e intermedios son de carácter optativo, el
estudio de larga duración es obligatorio. El laboratorio fabricante asume a
su vez el compromiso de completar los estudios necesarios de acuerdo al
protocolo aprobado, evaluar la estabilidad de al menos un lote anual y
retirar del mercado todo lote de producto que no cumpla con las
especificaciones. Este compromiso recibe el nombre de Compromiso de
Estabilidad.
A continuación se presenta la tabla con las condiciones de temperatura y
humedad relativa utilizadas en el estudio de estabilidad a largo plazo según
se trate de un producto destinado a almacenaje a 25ºC, heladera o freezer.

Almacenaje Temperatura Humedad relativa Tiempo


25ºC 25ºC ± 2ºC 60% ± 5% 12 meses
Heladera 5ºC ± 3ºC - 12 meses
Freezer -20ºC ± 5ºC - 12 meses

Tabla 4. Condiciones para estudios de estabilidad a largo plazo

Protocolo de estabilidad

Deben considerarse:
 Tipo, tamaño, número de lotes, orientación del envase y cierre: los estudios
de estabilidad a largo plazo deben llevarse a cabo por lo menos en tres
lotes de igual formulación, proceso de elaboración y envase. Dichos lotes
deben estar elaborados en planta piloto que simule la planta de producción.
 Plan de muestreo: se refiere a los tiempos de muestreo, ya indicados para
cada estudio.

279
 Especificaciones: Los límites de aceptabilidad deberían derivarse de los
estudios preclínicos y los ensayos clínicos. Las especificaciones deben
incluir límites superiores individuales y totales para impurezas y sustancias
relacionadas. Habitualmente se utilizan las especificaciones que figuran en
las farmacopeas.
 Aplicación de un método analítico adecuado y obtención de resultados del
estudio. Se desarrolla a continuación.
 Evaluación estadística de los datos obtenidos durante el estudio. Idem.
 Establecimiento de la fecha de reanálisis y fecha de vencimiento. Idem.
 Compromiso de estabilidad: asumido por el laboratorio elaborador, como ya
se indicó.

Características que debe reunir el método analítico

Un método analítico indicativo de estabilidad es aquel que permite cuantificar


con exactitud y precisión el o los principios activos intactos en presencia de sus
productos de degradación, impurezas de síntesis y –en el caso de un producto
medicamentoso– de otros componentes de la formulación. De ahí que sea
fundamental la validación del método analítico para que sea considerado
método indicativo de estabilidad.
Entre los parámetros que hay que determinar es de suma importancia, sobre
todo en este caso, la especificidad que, si recordamos, se define como la
capacidad de determinar un analito en presencia de compuestos que son
esperables de encontrar en la muestra analizada, es así que se comprenderá
que la especificidad es un requisito fundamental de cualquier método indicativo
de estabilidad.
Los métodos más utilizados son los separativos, como los cromatográficos,
HPLC, GC, TLC, y Electroforesis capilar.

280
Evaluación estadística de los datos obtenidos durante el estudio y
establecimiento de la fecha de vencimiento

Si el análisis estadístico de los tres lotes utilizados muestra que la variabilidad


lote a lote es pequeña, resultará ventajoso combinar los datos de los tres lotes
en una única estimación total. A continuación se presenta un árbol de
decisiones en el que se indica si la combinación de los resultados obtenidos es
o no posible.

Del análisis de los


resultados se observa No se aplica el estudio
que el principio activo estadístico.
no sufre degradación o
que la misma es muy
baja Pueden
combinarse
¿La comparación de las rectas
rectas de regresión SI de regresión
lineal muestra igualdad de los tres
en las pendientes y la lotes
La degradación ordenada al origen de
es apreciable las rectas de cada No pueden
lote? ¿Se verifica combinarse
igualdad de varianza NO las rectas
en los lotes para cada de regresión
punto de muestreo? de los tres
lotes

En el caso de que el análisis estadístico indique que la información dada por


los tres lotes no puede combinarse, la vida útil deberá determinarse a partir del
lote que se haya mantenido dentro de las especificaciones durante el menor
tiempo.
Según las guías internacionales (ICH, FDA, WHO, USP) y según la
Farmacopea Argentina, una aproximación aceptable para los atributos
cuantificables que disminuyen con el tiempo (como por ejemplo cantidad de
principio activo intacto) consiste en determinar el tiempo al cual el límite inferior
del intervalo de confianza (p=95%) para la curva media de degradación se
intercepta con el límite inferior del intervalo de aceptación.

281
Se utiliza el límite inferior del IC como modo de extremar las precauciones y
garantizar la eficacia y seguridad del medicamento.
Si se tratara de una propiedad cuantificable que aumenta con el tiempo (como
ser, por ejemplo, cantidad presente de una determinada sustancia relacionada
o de un producto de degradación) la situación se invierte y se determina el
tiempo para el cual el límite de aceptación se intercepta con el límite superior
del intervalo de confianza (p=95%).
Es importante considerar que cualquier evaluación de la estabilidad de una
droga o un medicamento debería cubrir no sólo el contenido de principio activo,
sino también los niveles de sustancias relacionadas y otros atributos
apropiados, como velocidad de disolución, % de impurezas, etc.
En ese marco, debe hacerse notar que la fecha de vencimiento de un
medicamento está dada por el menor tiempo en el cual deja de cumplirse
alguna de esas especificaciones (cantidad de principio activo intacto, cantidad
total de sustancias relacionadas, cantidad de una sustancia relacionada en
particular, velocidad de disolución, etc.). A modo de ejemplo, supongamos que
las especificaciones de un medicamento determinado indican que la cantidad
de principio activo del mismo debe estar entre el 90 y 110 % del valor
declarado y que la cantidad de sustancia relacionada X no debe ser mayor al
1% del valor declarado de principio activo. Si los estudios de estabilidad
indicaran que el principio activo alcanza el 90% del valor declarado en cuatro
años y que en cambio la sustancia relacionada X sobrepasa el 1% especificado
en tan sólo dos años, se elegirá como fecha de vencimiento no cuatro, sino dos
años a partir de la fecha de elaboración del medicamento.

Factores que afectan la estabilidad

En general, podemos clasificarlos en :


 Factores que dependen de las condiciones de almacenamiento: como ser
Temperatura, Luz, Gases atmosféricos, Humedad
 Factores que dependen de la interacción con el envase y con excipientes.

282
Respecto a los primeros, los factores ambientales que pueden afectar a las
drogas y a los medicamentos son:
- Temperatura: las altas temperaturas pueden acelerar la velocidad de las
reacciones degradativas y, en el caso de formulaciones líquidas,
aumentar la evaporación de disolventes. Las bajas temperaturas pueden
facilitar el deterioro de algunos materiales plásticos.
- Luz: este factor es una amenaza para los compuestos fotolábiles. Para
evitar esto se utilizan, en los envases primario y secundario, materiales
opacos o que bloqueen radiaciones de ciertas longitudes de onda
particularmente nocivas (por ejemplo, frascos de color caramelo-
inactínicos).
Gases atmosféricos: Si bien el oxígeno es el que más inconvenientes
puede causar, dado que favorece la oxidación de muchas sustancias, el
dióxido de carbono también debe ser tomado en cuenta, ya que puede
alterar el pH de las soluciones (con la subsecuente precipitación
potencial de algún compuesto de características ácido–base) y dar lugar
a la formación de carbonatos insolubles. El uso de envases fabricados a
partir de materiales impermeables y de cierres herméticos es una buena
estrategia para evitar las consecuencias de la exposición a la atmósfera,
al mismo tiempo que se minimiza la pérdida de sustancias volátiles
presentes en la formulación. En el caso de formas farmacéuticas
multidosis sólidas (por ejemplo comprimidos) conviene recurrir a envases
con compartimentos separados para cada una de las dosis. En el caso
de formas farmacéuticas líquidas (por ejemplo un jarabe) interesa que el
cierre mantenga su característica hermética con el uso sucesivo, es decir
que siga siendo efectivo al cerrarlo luego de la primera vez de uso.
Recordemos que una estrategia adicional de naturaleza farmacotécnica
es, en el caso de sustancias de alto potencial de oxidación, la inclusión
en la formulación de sustancias antioxidantes.
- Humedad: el agua, tanto en su forma líquida como en su forma vapor,
puede producir daños de tipo físico (tales como ablandamiento de una

283
cápsula y endurecimiento de un comprimido), como químico
(efervescencia, hidrólisis). Una buena estrategia para proteger drogas y
medicamentos de la humedad es el uso de envases fabricados en
materiales impermeables y con cierres herméticos. Es una práctica
común incluir, dentro del envase secundario, alguna sustancia desecante
(por ejemplo, sílicagel).

Hay factores que dependen del envase, para comprenderlos se deben tener en
cuenta los distintos tipos de envase, funciones, etc.

Envases – Clasificación

Primario: se define como envase primario a aquel


Envases que se encuentra en contacto directo con el
medicamento. A modo de ejemplo podemos citar
los blisters, frascos y ampollas.

Secundario: se define como el embalaje en el que


se encuentra incluido el envase primario.

Funciones del envase

Las principales funciones del envase (entendido como la suma de los envases
primario y secundario y el prospecto) son dos, a saber:

 Proporcionar protección frente a agentes externos, tanto los de tipo


mecánico (golpes, caídas, presiones) como los de naturaleza ambiental
(humedad, temperatura, luz, gases atmosféricos) y biológica (insectos,
bacterias, hongos).

284
 Proporcionar identificación e información necesaria para su adecuada
administración y conservación, tanto al paciente como al profesional
sanitario. En el prospecto debe incluirse la formulación y los aspectos
farmacológicos y toxicológicos, con el objeto de conseguir una
administración más segura. El paciente tiene el derecho y la obligación de
conocer qué laboratorio ha fabricado el medicamento, su fecha de
vencimiento, las contraindicaciones y reacciones adversas, etc. Una buena
medida para inducir al paciente a leer el prospecto es la inclusión, en el
envase primario o secundario, de una invitación expresa y claramente
visible a leer las instrucciones que figuran en el prospecto. Entre las buenas
prácticas de atención farmacéutica figura que, al dispensar un
medicamento, el profesional farmacéutico no sólo instruya sobre las
características más generales que el paciente debe tener en cuenta para
garantizar la administración segura, minimizar efectos adversos y favorecer
la observación rigurosa del tratamiento, sino también que invite a conocer la
información dada por el prospecto y por los envases primario y secundario.

Características del envase primario

El envase primario debería cumplir con las siguientes características:

 No debe reaccionar con ningún componente de la forma farmaceútica.


 No debe ceder ningún componente al medicamento.
 No se debe producir ni adsorción ni absorción de ningún componente del
medicamento sobre el mismo.
 No debe afectar negativamente ninguna de las características que hacen a
la estabilidad y calidad del medicamento.
 Como mínimo, debe incluir la siguiente información: nombre del
medicamento, lote de fabricación, fecha de vencimiento, vía de
administración y peso o volumen del medicamento contenido en el envase.

285
Características del envase secundario

El envase secundario suele estar constituido por una caja de cartón satinada
con el fin de mejorar la presentación y dar mayor protección frente a la
humedad y la luz. Una de sus principales funciones es proteger al envase
primario contra golpes y caídas. También actúa como elemento de
identificación externa.

La información que debe contener el envase secundario es:

 Nombre del medicamento y nombre genérico del principio activo


 Composición cuali – cuantitativa.
 Forma farmaceútica y contenido en peso o volumen.
 Vía de administración.
 La advertencia “Manténgase fuera del alcance de los niños”.
 Fecha de vencimiento.
 Precauciones que deben tenerse en cuenta para su adecuada
conservación.
 Nombre y dirección del titular de la autorización del medicamento.
 Identificación del lote de fabricación.
 Las leyendas “Venta Libre” o “Venta bajo receta”, según corresponda.

En cuanto a los factores que pueden afectar la estabilidad dependientes de la


interacción con excipientes, debemos tener en cuenta que éstos no deben
reaccionar entre sí, ni con los principios activos, mediante distintos tipos de
reacciones, por ejempl,: formación de complejos, de pares iónicos,
transferencia de acilo, etc.

286
E Ampollas: recipientes de pequeño volumen,
N elaboradas con vidrio incoloro o color caramelo.
V El contenido se extrae en una sola vez, previa
F ruptura. La ampolla debe romperse por el
A
O estrangulamiento, limando esa zona con lima
S
E R metálica o si se dispone de las llamadas
S M ampollas de fácil ruptura, pueden abrirse
A ejerciendo una pequeña presión con las manos
P S sobre una zona de fragilidad del
R estrangulamiento, señalada con un punto o una
I línea de pintura
L
M I Viales: recipientes de vidrio incoloro o color
A Q
R caramelo de capacidad variable; el cerrado se
U efectúa con un tapón de material elastomérico y
I
I el sellado con una cápsula de aluminio o
O
D aluminio – plástico
S
A
C S Jeringas prellenadas: su interés reside en la
L nula manipulación del inyectable para ser
A administrado. Se utiliza para la administración
S de insulinas, heparinas, etc.
I
F Tubo de metal: si se utiliza correctamente, el
I riesgo de contaminación de la fracción
F
C remanente es mínimo ya que el tubo, al ser
A O
colapsable, no vuelve a inspirar aire hacia el
D R interior una vez que cede la presión de la mano.
O M Si la formulación es incompatible con el metal,
S A el interior se recubre con sustancias céreas o
S resinas epoxi
S
E S
G Tubo de plástico: inodoro, irrompible, con gran
E inercia química. Son capaces de mantener su
U M
N forma durante toda su vida útil, lo cual supone
I una ventaja estética compensada con una
T S desventaja en lo que respecta a la estabilidad:
I O al recuperar su forma original luego de la
P L administración puede ocurrir la entrada de aire,
O I lo que constituye un riesgo de alteración de la
D fracción remanente.
D A
E S Las formas sólidas de administración oral
suelen acondicionarse en envases de tipo
F
blister, constituidos por una lámina moldeada
O F en forma de pequeñas cavidades sellada en su
R
O parte inferior. La superior puede ser de aluminio
M
R o cloruro de polivinilo. La inferior es de
A
M aluminio.
F A
S Otra forma menos común es envasar las
A
formas sólidas de administración oral entre dos
R
láminas de plástico, papel y aluminio, que
M S mediante termosellado en los bordes alrededor
A O de cada dosis da origen al envase de tiras,
C L óptimo para comprimidos efervescentes por la
E I baja permeación a la humedad.
U
D
T
I
A
C S
A
287
Respondabilidades del farmaceútico respecto a la estabilidad de los
medicamentos en la oficina de farmacia

Varias son las acciones mediante las cuales el farmacéutico debe asegurar que
los productos bajo su supervisión cumplan los criterios de estabilidad:
 Dispensar siempre el stock más viejo; controlar la fecha de vencimiento de
los productos en stock y, también, al momento de dispensarlos.
 Almacenar los productos medicamentosos y las materias primas bajo las
condiciones de almacenamiento establecidas por la monografía
correspondiente o indicadas en el envase y prospecto. Cuando un producto
deba ser almacenado a resguardo de la luz y se encuentre en un envase
primario transparente contenido a su vez en un envase secundario opaco,
éste último no debe descartarse hasta que se haya terminado de
administrar el medicamento. En ausencia de instrucciones específicas en el
envase y prospecto, el medicamento o la droga deberían ser almacenados
a temperatura ambiente controlada. Se debe evitar almacenar el
medicamento o la materia prima en las proximidades de una fuente de calor
o luz excesivos o variables, como puede ser, a modo de ejemplo, un tubo
fluorescente.
 Observar los medicamentos en busca de evidencias de inestabilidad.
- Formas farmacéuticas sólidas: la aparición de gotas de líquido
condensadas dentro del envase es evidencia de condiciones
inadecuadas. Algunas drogas como el ácido salicílico pueden sublimar y
depositarse en las paredes del envase en forma de cristales. En el caso
de las cápsulas el ablandamiento o endurecimiento de la cubierta son los
principales indicativos de inestabilidad. Otro signo de inestabilidad lo
constituye cualquier evidencia de desprendimiento gaseoso, como ser
que parte del envase se encuentre distendida. En el caso de
comprimidos, pueden citarse a modo de ejemplos de signos de
inestabilidad: decoloración, distintos tipos de erosión y picado, fusión de
comprimidos, aparición de cristales en las paredes del envase o sobre los
comprimidos. Las cápsulas no deberán mostrar evidencia de

288
abalandamiento o endurecimiento de la cubierta. Los polvos y granulados
no deberán aglomerarse formando partículas grandes.

Figura 1. Ejemplos de erosión de núcleos, agrietamiento,


erosión de bordes, descamación, picado y pegado.

- Formas farmacéuticas líquidas: Un aspecto de suma importancia en las


formas farmacéuticas líquidas es la homogeneidad y la ausencia de
desarrollo microbiano excesivo. El desarrollo microbiano puede ir
acompañado de producción de gas. En el caso de suspensiones, se
considerará evidencia de inestabilidad la formación de agregados que no
sean fácilmente resuspendibles (coagulados).
- Formas semisólidas: La ruptura de una emulsión es uno de los signos
más frecuentes de su inestabilidad (no debe confundirse con el cremado,
una separación de la fase oleosa fácilmente reversible). Otros signos de
inestabilidad son el crecimiento cristalino o la reducción por evaporación
de la fase acuosa. Los ungüentos pueden sufrir “sangrado” (separación
de cantidades excesivas de líquido). Los supositorios pueden liberar mal
olor a causa de enranciamiento; como regla general, estos últimos
siempre se almacenarán en heladera.

289
 Apropiado tratamiento de productos sometidos a manipulación adicional
(reempacado, dilución o mezcla).
 Informar y educar al paciente: el farmacéutico está obligado a informar al
paciente sobre las condiciones adecuadas de almacenamiento y es
conveniente remarcar que la fecha de vencimiento tendrá validez sólo si
dichas condiciones de almacenamiento se respetan.

Se debe recordar que los medicamentos una vez vencidos no se deben utilizar
bajo ningún concepto y que se transforman en un tipo de residuos que pueden
ser considerados peligrosos, pudiendo contener sustancias tóxicas o de
especial cuidado.
Los medicamentos vencidos pueden provocar los siguientes efectos:
Contaminación del agua potable
Perjuicio de la vida acuática
Muerte de microorganismos claves para el ecosistema
Resistencia a microorganismos patógenos
Liberación de contaminantes cuando son quemados en forma
inapropiada
Bioacumulación en tejidos de seres vivos
Pasar a la cadena de distribución informal e ingresar nuevamente al
mercado
Es muy importante recordar que la OMS establece que el concepto de
Intercambiabilidad de medicamentos se debe aplicar no sólo a la forma
farmacéutica sino también a las instrucciones de uso y a las especificaciones
de los envases, cuando éstas son criticas para la estabilidad y vencimiento. Por
ello es imprescindible que la información que aparece en los envases
secundarios y en los prospectos de los medicamentos sea coherente y
completa, respecto a condiciones de conservación: temperatura, luz, humedad.
Sería deseable lograr una unificación de criterios en este sentido lo cual no
crearía incertidumbre, ni en los farmacéuticos oficinales u hospitalarios, ni en
los pacientes, respecto de cómo almacenar los productos.

290
En relación a la estabilidad y conservación de drogas y medicamentos que
necesitan para ello ser mantenidos a bajas temperaturas, repasaremos a
continuación conceptos relacionados a la llamada Cadena de Frío.

Cadena de Frío

Se define la cadena de frío como la serie de elementos y actividades


necesarios para garantizar que, a lo largo de los procesos de distribución,
almacenamiento y manipulación, las drogas, medicamentos y vacunas sean
conservados dentro de los rangos de temperatura establecidos para que
mantengan su potencia o, en el caso de las vacunas, su poder inmunológico.

Eslabones de la cadena de frío

Recursos Humanos. Se requieren recursos humanos capacitados y


concientizados en la importancia de la cadena de frío. La capacitación deberá
incluir todos los aspectos relativos a la cadena de frío (pautas para optimizar el
rendimiento de los equipos de frío, horas de vida en frío de cada dispositivo) y
a la termoestabilidad de las distintas vacunas. Las personas que forman parte
de la cadena de frío deben comprender que si cada eslabón de la cadena no se
utiliza eficazmente no sólo se pone en riesgo la salud de la población sino que
la total inversión de un programa de vacunación puede perderse. Una de las
tareas del farmacéutico, como responsable de la elaboración y dispensación de
vacunas y medicamentos, consiste en formar y concientizar al eslabón humano
de la cadena de frío.
Recursos materiales. Se refiere a los dispositivos y elementos utilizados para
asegurar que la temperatura de las vacunas y medicamentos se mantenga
dentro del rango de temperaturas óptimo para su conservación (incluyen
vehículos frigoríficos, refrigeradores portátiles, cajas isotérmicas, portavacunas,
controladores de temperatura, cámaras frigoríficas, congeladores, heladeras,

291
etc). Respecto a la autonomía de las heladeras (denominada hold over, es
decir, tiempo en el que la temperatura se mantiene entre 0 y 10ºC luego de un
corte en el suministro eléctrico), la OMS establece que debe ser, como mínimo,
de seis horas.

Indudablemente el eslabón más débil de la cadena es el transporte, algunas


soluciones para reforzarlo son utilizar:

Indicadores electrónicos, con software de monitoreo y alarma


Indicadores de temperatura (etiquetas sensibles a cambios de
temperatura, con cambios de color)
Registradores de datos
Tecnología de identificación de frecuencia de radio (RFID)
Contenedores aislados de poliestireno expandido o de espuma de
uretano
Refrigerantes

Pautas para el almacenaje de vacunas y medicamentos

En todos los niveles de almacenaje se deberá disponer o tener identificada una


heladera auxiliar de referencia donde almacenar las vacunas en caso de avería
de la heladera principal o durante la limpieza de ésta.
Realizar controles diarios de la temperatura de la heladera (se requiere de un
termómetro o controlador de temperatura fiable). Llevar un registro de
temperaturas.
En caso de no disponer de registro continuo de temperatura, ésta deberá ser
controlada y registrada dos veces al día, una por la mañana y otra por la tarde.
Cualquier anomalía detectada deberá comunicarse rápidamente a servicios de
mantenimiento
Ubicación de las vacunas. Deberán tenerse en cuenta varios aspectos:

292
Termoestabilidad: es conveniente almacenar las vacunas más termolábiles en
las zonas más frías de la cámara o heladera, reservando las zonas menos frías
para el almacenamiento de las vacunas más termoestables. Nunca colocar
vacunas en la puerta o en el estante inferior.
Accesibilidad: conviene que las vacunas de salida más frecuente se ubiquen
en los espacios más fácilmente accesibles; no sólo se busca limitar el número
de veces que se abre la cámara o heladera para minimizar las variaciones de
temperatura, sino también la duración de dichas aperturas.
Caducidad: las vacunas que se encuentren más próximas a su fecha de
vencimiento deberán ubicarse en los espacios más accesibles.
Señalización. Es aconsejable la señalización (mediante un plano o croquis
colocado en el exterior de la cámara, heladera o frigorífico) de la ubicación de
las vacunas en el interior, con la finalidad de facilitar su localización, evitar
aperturas innecesarias y limitar el tiempo de éstas. En el interior de la cámara
también deben señalizarse los estantes o las zonas de almacenaje indicando:
el tipo de vacuna, el laboratorio, el lote, la caducidad y el número de dosis
almacenadas.
Control de la congelación de las vacunas. En el caso de no disponer de
registro continuo de temperatura, es conveniente verificar, al iniciar la jornada,
que las vacunas no han estado congeladas. Para lo cual deberá realizarse el
test de agitación. Este es un test práctico, económico y fiable que consiste en
agitar enérgicamente un vial de vacuna presuntamente congelada colocándolo
después sobre una superficie plana y ante una luz. Se repite la operación con
otro vial que no haya sido congelado, de la misma vacuna y del mismo
fabricante y se comparan. En el momento mismo de la realización del test la
vacuna no congelada aparece lisa y turbia, mientras que la congelada presenta
gránulos o flóculos y menos turbidez. Esta diferencia se hace más evidente
pasados unos minutos, así pues, si observamos el vial a los quince minutos de
la realización del test, observaremos que la vacuna no congelada permanece
lisa y turbia, mientras que en la congelada aparece un sedimento en el fondo
del vial. Pasados treinta minutos, la vacuna no congelada empieza a aclararse
pero no tiene sedimento, mientras la vacuna congelada es casi completamente

293
clara y con un sedimento denso. Si finalmente observamos los viales al cabo
de una hora, veremos que la vacuna no congelada se mantiene medio clara
con un sedimento turbio y espeso que se mueve cuando se inclina el frasco
mientras que la vacuna congelada aparece completamente sedimentada, con
un sedimento que apenas se mueve al inclinar el frasco. Es recomendable
realizar este test en el momento de la recepción de las vacunas y ante la
sospecha de que hayan podido congelarse durante el almacenamiento. Si la
vacuna ha sido congelada debe desecharse.
Control de la caducidad de las vacunas. Llevar un registro de la fecha de
vencimiento de cada uno de los lotes almacenados.
Mantenimiento del congelador. Inspeccionar diariamente el congelador y
comprobar que no haya habido descongelación o que la capa de hielo no tiene
un grosor superior a 5mm. Un sistema práctico para poder comprobar si se ha
producido descongelación, es colocar sobre la placa del congelador un par de
cubitos de hielo. Si, al inspeccionar el congelador, los cubitos han perdido su
forma inicial, significará que ha existido un ciclo de descongelación-
congelación. Cuando el grosor de la capa de hielo del congelador supere los
5mm, deberá procederse a su descongelación. Si se utilizan acumuladores de
frío se refrigerarán en la heladera antes de colocarlos en el congelador. Al
almacenarlos en el congelador deberán colocarse sobre la placa de éste y no
apilados unos sobre otros. En el congelador es conveniente disponer siempre
de acumuladores congelados. Esto contribuirá a que la temperatura del
congelador sea más fría y por tanto a que los nuevos acumuladores se
congelen con mayor rapidez.
Mantenimiento de la heladera y de las heladeras portátiles. Tener siempre
botellas de agua (o acumuladores llenos de agua) colocados en los espacios
libres de la heladera con la finalidad de estabilizar más rápidamente la
temperatura en caso de aperturas y de aumentar la duración de la refrigeración
en caso de avería. Evitar siempre el almacenamiento de bebidas o alimentos
en la heladera, ya que el calor de los alimentos y de las bebidas, así como la
apertura reiterada de la puerta, harán aumentar la temperatura interior de la
heladera, lo cual puede deteriorar las vacunas. Cuando se utilicen las

294
heladeras portátiles, deberá tenerse la precaución de limpiarlas después de
cada uso y quitarles la tapa, para facilitar su secado. Después de cada
utilización es conveniente examinar las paredes internas y externas de la
heladera para detectar la aparición de fisuras o grietas, en cuyo caso, y de no
poder repararlas, se deberá cambiar la heladera. La exposición directa al sol de
estas heladeras puede provocar la aparición de estas fisuras o abombamiento,
por lo que siempre deberá evitarse dicha exposición.
Controlar la autonomía de la heladera.

Otras estrategias para garantizar la cadena de frío

Uso de sensores de control de los viales de vacuna. Un cuadrado sensible


al calor situado en el interior de un círculo cambia de color bajo la influencia
combinada del calor y del tiempo. Si tras la exposición al calor durante un cierto
lapso el cuadrado alcanza el mismo color que el círculo, o lo supera en
intensidad, debe descartarse el vial.

Figura 2. Indicadores de control de temperatura

Recordar que la sensibilidad a la temperatura en el caso de las vacunas no


sólo implica sensibilidad al calor, sino también al exceso de frío.

295
Sensibilidad de las vacunas al calor:

Mayor sensibilidad
Oral contra la polio
Rubeola
Triple bacteriana (DPT)
Fiebre amarilla
BCG (tuberculosis)
Hib (gripe) – DT
Td – TT – Hepatitis B
Menor sensibilidad

Sensibilidad de las vacunas al frío:

Mayor sensibilidad
Hepatitis B
Hib
DPT
DT
Td
TT

Menor sensibilidad

Preguntas Orientadoras

1. Objetivos de un estudio de estabilidad. Cómo se determina la fecha


de vencimiento de una especialidad y cómo se estima el período útil
de una preparación magistral?

2. Qué tipos de estudios de estabilidad conoce?

3. Como elaboraría un protocolo para determinar la fecha de


vencimiento de una formulación farmacéutica?

296
4. Enumere los estudios de estabilidad de los productos destinados
para almacenar a Temperatura Ambiente. Describa condiciones y
tiempo/s de muestreo/s.
5. Qué factores pueden afectar la estabilidad de un producto?

6. Qué medidas deben llevarse a cabo para controlar y optimizar el


funcionamiento de un equipo de refrigeración destinado a almacenar
vacunas y otros medicamentos que requieren cadena de frío.

Test de Autoevaluación

1. Cuál de estos factores afecta la estabilidad de una forma farmacéutica


líquida?
(a) Humedad
(b) pH
(c) Solubilidad
(d) Indice de refracción

2. A cuál de estas materias primas hay que proteger en especial de la


Humedad?
(a) Droga con una función fenólica
(b) Droga con una función éster
(c) Droga con una función aldehido
(d) Droga con una función alcohólica.

3. A cuál de estas materias primas hay que proteger en especial de la


Oxidación?
(a) Droga con una función fenólica
(b) Droga con una función éster
(c) Droga con una función amina
(d) Droga con una función amida.

297
4. Cuál de estos factores puede afectar la estabilidad de una forma
farmacéutica sólida?
(a) Humedad
(b) pH
(c) Solubilidad
(d) Indice de refracción

5. Las reacciones de Hidrólisis afectan a las materias primas con el


siguiente grupo funcional
(a) Función fenólica
(b) Función éster
(c) Función amina
(d) Función cetona.

Bibliografía

1. Ministerio de Salud – ANMAT. Farmacopea Argentina. VII ed. (2003)


Buenos Aires.
2. International Conference on Harmonisation (ICH) Stability Testing:
Photostability Testing of New Drug Substances and Products (1996) Silver
Spring.
3. Farmacopea de los Estados Unidos de América (USP 34) (2011)
Rockville.
4. US Department of Health and Human Services, FDA, Center for Drug
Evaluation and Research, Center for Biologics Evaluation and Research, ICH.
Guidance for industry Q1A: Stability Testing of New Drug Substances and
Products, Revision I. (2001)
5. Trissell L. A.; Flora K. P. (1998) Stability studies: five years later. Am J
Hosp Pharm., 45:1569-1571
6. Nichols C. A.; Welsh O. H. Jr. (1998) AJHP policy on manuscripts
dealing with drug stability. Am J Hosp Pharm., 45:1571-1572

298
7. Soriano M. C.; Sánchez – Lafuente C.; Álvarez – Puentes J.; Holgado
M. A. (2000) Acondicionamiento de medicamentos: funciones y tipos de
envasado. Departamento de Farmacia y Tecnología Farmacéutica, Facultad de
Farmacia, Universidad de Sevilla.
8. Departamento de Vacunas y Productos Biológicos, Organización
Mundial de la Salud. (2000) Uso de los sensores de control de los viales de
vacuna. Ginebra.
9. Advisory Committee on Immunization Practices (ACIP) and American
Academy of Family Physicians (AAFP). (2003) Guidelines for Maintaining and
Managing the Vaccine Cold Chain. MMWR Weekly
10. Boletín de la Sociedad Española de Medicina Preventiva, Salud Pública
e Higiene. (2003) Cadena de frío y logística de los programas de vacunación.

299
CAPITULO 13
ENSAYOS BIOLÓGICOS
Pablo Quiroga

Introducción

En general, los sistemas de control de calidad para productos biofarmacéuticos


son muy similares a los utilizados rutinariamente en productos farmacéuticos
de bajo peso molecular, la diferencia fundamental entre estos sistemas de
control de calidad para productos obtenidos por biotecnología y productos
farmacéuticos tradicionales reside en el tipo de métodos que se emplean para
determinar la identidad del producto, su uniformidad, su pureza y el perfil de
impurezas. La complejidad de los sistemas de control de calidad para los
productos biofarmacéuticos está relacionada con el tamaño y con las
características estructurales del producto y el proceso de fabricación.
En este capítulo desarrollaremos los fundamentos y principios básicos de los
Ensayos Biológicos o Bioensayos los cuales constituyen una parte integral de
la evaluación de la calidad de productos de origen biológico y son utilizados
comúnmente para la estimación de la potencia de un principio activo.

Biofarmacéuticos/Bioterapéuticos

Agentes terapéuticos producidos a partir de organismos vivos o sus productos


(incluyendo tecnología ADN recombinante, procesos de manufactura
biotecnológica, y síntesis química utilizando nucleótidos o aminoácidos) e
incluye los anticuerpos monoclonales, fragmentos de anticuerpos, péptidos,
factores de reemplazo, proteínas de fusión, oligonucleótidos, y preparaciones
de ADN para terapia génica. Esta clase de agentes terapéuticos ha tenido un
gran crecimiento en estos últimos años y han sido y son utilizados para un

300
amplio espectro de indicaciones terapéuticas que van desde la oncología y
enfermedades autoinmunes hasta enfermedades huérfanas y de origen
genético. Si bien las vacunas y otros productos biológicos no están incluidos en
la definición anterior, la determinación de su potencia relativa es realizada
aplicando los ensayos biológicos o bioensayos.
Ensayos Biológicos o Bioensayos: se describen para la valoración de ciertas
sustancias y preparaciones cuya potencia no puede garantizarse
adecuadamente mediante análisis químico o físico. El principio a aplicar,
siempre que sea posible, a lo largo de estos ensayos, es comparar una
preparación desconocida con una preparación patrón y determinar que
cantidad de la sustancia, que sé está examinando, produce el mismo efecto
biológico que una cantidad dada, la Unidad, de la preparación patrón / estándar
de referencia. Es una condición esencial, que los ensayos sobre la preparación
estándar y sobre la sustancia a examinar se realicen al mismo tiempo y bajo
condiciones tan idénticas como sea posible (Farmacopea Europea Suplemento
2000, capitulo 5.3 Statistical Análisis of Results of Biological Assay and Tests).
Estos ensayos se diferencian de los ensayos fisicoquímicos por su
dependencia de un sustrato biológico (ej. Animales, células vivas, o complejos
funcionales de receptores blancos).
Estos ensayos constituyen herramientas fundamentales en la determinación de
la potencia y el aseguramiento de la actividad de proteínas, vacunas, terapia
celular, terapia génica, y mezclas complejas, los mismos juegan un rol muy
importante en el monitoreo de la estabilidad de los productos biofarmacéuticos.
Por lo tanto las aplicaciones comunes de los ensayos biológicos incluyen la
caracterización de los productos biológicos y biotecnológicos, liberación de
lotes productivos y estudios de estabilidad.
Como hemos visto en la definición de ensayo biológico los mismos son
ensayos relativos por lo cual debemos contar con materiales biológicos de
referencia, la Organización Mundial de la Salud (OMS / WHO) provee dichos
materiales referencia (al igual que la Farmacopea de Estados Unidos-USP y la
European Pharmacopoeia-EP), los cuales sirven como fuente de referencia
para una actividad biológica definida la cual es expresada internacionalmente

301
como Unidad. El concepto de la utilización de preparaciones bien
caracterizadas como referencia contra los cuales diferentes lotes de productos
biológicos son valorados, continua siendo fundamental para asegurar la calidad
de los productos biológicos y también para demostrar la consistencia en la
producción de los mismos, los cuales son esenciales para el establecimiento de
apropiados niveles clínicos de dosificación.
La OMS en su WHO Technical Report Series, No. 932, 2006- Anexo 2 define a
estándar de referencia como “materiales que son utilizados como calibradores
en los ensayos”. La OMS provee estándar de referencia para un rango de
sustancias las cuales son consideradas como “biológicos”: sustancias las
cuales no pueden ser completamente caracterizadas solamente por métodos
fisicoquímicos, y requieren de esta manera la utilización/aplicación de alguna
forma de ensayo biológico. Los estándar de referencia son provistos para la
calibración de los ensayos basados en la interacción de componentes de
sistemas vivos, incluyendo aquellos basados en la función biológica,
reactividad inmunológica, activación y amplificación enzimática y actúan como
estándares globales de “orden superior” para la medición de los analitos que
ellos definen. Para la liberación de lotes productivos, los bioensayos son
utilizados para evaluar la potencia del principio activo antes de la liberación del
producto biofarmacéutico, vacunas, etc. En estos se debe establecer una
especificación de liberación, mediante la definición de un rango de valores de
potencia que son aceptables para el producto en sus condiciones de
almacenamiento / conservación declaradas hasta su fecha de vencimiento.
Los Bioensayos pueden ser divididos en:
Bioensayos in vivo. (animales)
Bioensayos ex vivo.
Bioensayos in vitro (células)
Bioensayos in vivo: los ensayos de potencia in vivo son bioensayos en los
cuales un número de diluciones tanto del estándar como del material test son
administradas a los animales, para la estimación de la potencia se utiliza una
relación Dosis vs. Respuesta. Con la aparición de líneas celulares específicas
para mecanismo de acción fisiológico propuesto, la utilización de animales para

302
la determinación de la potencia ha sido ampliamente disminuida. Cuando la
actividad in vitro no está fuertemente asociada con la actividad in vivo, es
necesario recurrir a una combinación de ensayos in vitro basados en células y
un adecuado método fisicoquímico para poder sustituir un bioensayo in vivo.
Bioensayos ex vivo: en este tipo de bioensayos células o tejidos obtenidos de
animales o donantes humanos pueden ser cultivados en el laboratorio y
utilizados para la valoración de una preparación Desconocida.
Bioensayos in vitro (basados en células): estos bioensayos utilizan clones de
líneas celulares que responden a un ligando o agente infeccioso específico y
pueden ser utilizados como ensayos de liberación de lotes de bioterapéuticos.
Estás líneas celulares pueden derivar de tumores, líneas celulares de
ingeniería transfectadas con un receptor apropiado, entre otros. Los avances
en la tecnología ADN recombinante y el entendimiento de los mecanismos de
señalización celular han permitido la generación de líneas celulares de
ingeniería las cuales mejoran la respuesta y aumentan la estabilidad de las
mismas. Las respuestas incluyen: proliferación celular, muerte celular, actividad
antiviral, diferenciación, secreción de citoquinas/mediadores y activación
enzimática.
Teniendo en cuenta lo indicado en el Tópico Q6B de ICH no siempre es
necesario en el ensayo biológico reproducir exactamente la actividad Biológica
del producto en una situación clínica, pero deberá previamente establecerse en
estudios farmacodinámicos o clínicos una correlación entre la respuesta clínica
esperada y la actividad evaluada en el ensayo biológico.

¿Cuándo debemos recurrir a un ensayo biológico?

 Cuando la droga no puede ser valorada por procedimientos químicos o


físicos por no presentar características que lo hagan posible

 Cuando los métodos químicos o físicos no son capaces de distinguir


diferencias estructurales de la droga, que sin embargo repercuten
considerablemente en su actividad biológica.

303
 Cuando la presencia de otros compuestos interfiere en las valoraciones
físicas o químicas.

 Cuando el principio activo se encuentra en una concentración tan pequeña


que no es posible detectarlo por ningún método físico o químico.

Los bioensayos se basan en la relación Dosis/Concentración vs. Respuesta

Sistema biológico (animal


Estímulo (Dosis/ entero, parte de él, cultivo Respuesta
Concentración) celular etc.) (medición)

Figura 1. Esquema relación dosis/concentración- respuesta

Una vez obtenida la respuesta sé gráfica la dosis/concentración vs la


Respuesta media de ¨n¨ determinaciones, la respuesta (Y) puede ser
directamente la respuesta medida o una transformación de la misma y en el
caso de la dosis o concentración (X) se utiliza fundamentalmente la
transformación logarítmica, diferentes funciones matemáticas pueden ser
utilizadas para describir de manera adecuada y correcta la relación dosis/
concentración- respuesta tal que los valores de Y de X satisfagan la hipótesis
de linealidad Y = a + bX.

Clasificación de los Ensayos Biológicos

Los ensayos biológicos los podemos clasificar en: Ensayos Directos y


Ensayos Indirectos:
Ensayo Directo: es aquel en el cual se mide la dosis de la preparación
Estándar y Desconocido que producen una respuesta biológica específica y
bien definida, la respuesta es fija, y la dosis variable llamada dosis umbral. El
cociente entre la dosis umbral media para la preparación Estándar y la dosis
umbral media para la preparación Test proporciona directamente la potencia.
La dosis umbral se determina dos veces en cada animal, una con el Estándar y

304
la otra con el Desconocido, posteriormente cada dosis se convierte en su
logaritmo, se determina la diferencia entre ambos logaritmos de las dosis
respectivas para cada animal y se calcula la potencia a partir del promedio de
estas diferencias. Los ensayos directos no siempre son posibles, el mayor
inconveniente está en la determinación exacta de la dosis que produce
respuesta biológica específica, a continuación se describe en ejemplo de este
tipo de ensayo.
Bioensayo in vivo. Valoración de Adrenalina de F.A. VI ed.
Procedimiento
Se preparan las soluciones Estándar de adrenalina y de la solución
Desconocida en solución al 0.9 % de ClNa en agua para inyectable (sol.
Fisiológica), se anestesia el animal con solución de cloralosa 8%, se aísla la
carótida y se le conecta un manómetro de Hg el cual permite registrar la
presión arterial, posteriormente se le inyecta por vena un volumen de la
solución patrón de adrenalina hasta obtener la respuesta indicada, cuando la
presión vuelve a su nivel inicial se repite la inyección de la misma dosis,
deberá obtenerse en esta y 2-3 inyecciones sucesivas la misma respuesta. Una
vez fijada la dosis del patrón que produce un efecto constante se determina,
procediendo de forma análoga, la dosis de la solución a valorar que produzca
la misma respuesta, posteriormente se procede a inyectar nuevamente la
solución de adrenalina Estándar, con el objetivo de comprobar que la
sensibilidad del animal no ha variado. De la comparación de las dosis umbral
de ambas soluciones transformadas a logaritmo, se calcula la Potencia Relativa
(PR) de la sustancia Desconocida, de acuerdo a la siguiente fórmula:
PR= DE/DD aplicando la transformación logarítmica de los valores de dosis,
log PR = log DE – log DD = M
PR = Antilog M
PR: Potencia Relativa
DE: Dosis de la preparación Estándar requerida para producir la respuesta
biológica específica y definida.
DD: Dosis de la preparación Desconocida requerida para producir la misma
respuesta.

305
Ensayo Indirecto: En estos ensayos por lo general la dosis umbral no puede
medirse directamente, por lo tanto la potencia se determina de manera
indirecta por comparación de las respuestas a dosis conocidas del Estándar y
las respuestas después de una o varias dosis del Desconocido, es decir en
este tipo de ensayos se administran dosis predeterminadas de la preparación
Desconocida y de la preparación Estándar y se registran las respuestas de
cada unidad experimental a cada dosis administrada.
Existen fundamentalmente dos tipos de datos en este tipo de ensayos:
A. Respuestas Graduales o cuantitativas
B. Respuestas Cuantales - Cualitativas o del Todo o nada.
Esta clasificación se refiere a la naturaleza de la respuesta utilizada para la
construcción del modelo (relación Dosis/Concentración vs. Respuesta) en el
ensayo.
A. Respuestas graduales o cuantitativas: estas respuestas son mediciones
numericas sobre una escala continua (Ej. Respuesta espectrofotometrica,
luminiscencia, densidad optica, peso corporal, etc.) son aquellas en las cuales
se administran diferentes Dosis/Concentraciones del preparado Estándar y del
Desconocido a cada unidad experimental (en el caso de un bioensayo en vivo)
y se mide el efecto o respuesta en cada una de ellas sobre la base de una
escala cuantitativa, es decir en cada unidad experimental se observa y
cuantifica una respuesta (ej. si la unidad experimental es el ratón y cada grupo
tratado esta compuesto por 6 ratones, obtendremos un valor para cada uno de
los 6 ratones, a partir de los resultados individuales se obtiene un valor medio
con su respectiva dispersión). Los ensayos que se basan en este tipo de
respuesta se denominan Ensayos Cuantitativos.
B. Respuestas Cuantales - Cualitativas o del "Todo o nada”: son respuestas
categoricas, aquellas en las cuales es imposible o excesivamente laborioso
cuantificar o medir la respuesta en cada unidad experimental, por lo tanto se
evalua si un efecto o sintoma (ej. muerte o sobrevida, ausencia o presencia de
convulsiones) ocurre o no ocurre en cada unidad experimental, en este caso en
lugar de tener “n” valores individuales de respuesta, tendríamos un solo valor
para cada tratamiento, este valor se expresa como la fracción o el porcentaje

306
de unidades experimentales en cada grupo tratado que ha mostrado una
respuesta determinada. Ej. si la unidad experimental es el ratón y cada grupo
está compuesto por 10 ratones y la respuesta buscada es la muerte o
sobrevida del animal, si 6 animales mueren, entonces el resultado será 6/10 o
sea 0.6 o 60%. Los ensayos que se basan en este tipo de respuesta se
denominan Ensayos Cuantales, a continuación se describe un ejemplo de
Ensayo Cuantal
Ejemplo:
Valoración de Insulina por inyección subcutánea en ratón. (European
Pharmacopeia, 1997)
Respuesta: presencia de convulsiones debido a hipoglucemia dentro de los 75
minutos posteriores a la inyección subcutánea de insulina.
Procedimiento: Se administran 2 dosis de 24 miliunidades/ratón y 40
miliunidades/ratón contenidas en un volumen de 0.25 ml, de la preparación
patrón, dosis equivalentes de la preparación desconocida son preparadas en
base a la potencia declarada. Cada dosis de la preparación Estándar y
Desconocida son administradas a grupos de 24 ratones cada uno. Se
presentan los resultados en la Tabla 1.

Preparación Dosis (MU) (n)* (r)° P= r/n

40 (E1) 24 21 0.88
Estándar (E)
24 (E2) 24 8 0.33

40 (T1)# 24 20 0.83
Desconocido (D)

24 (T2)# 24 10 0.42

Tabla 1. * N° de ratones por grupo, ° N° de ratones por grupo que presentaron respuesta,
# Las dosis de la preparación Desconocida fueron preparadas basándose en la potencia
declarada.

307
Validación de los Ensayos Biológicos
Antes de aplicar un ensayo biológico en nuestro laboratorio, debemos
proceder a validar el mismo con el objetivo de evaluar las condiciones o
características operacionales del procedimiento propuesto, tal cual lo descripto
en el Capítulo 2 de este libro.
La validación de un ensayo biológico deberá incluir muestras que sean
representativas del material que será evaluado durante el mismo, con el
objetivo de evaluar su performance.
Para estudiar las propiedades de los reactivos empleados (animales, líneas
celulares, etc) y las condiciones de nuestro laboratorio, el primer paso es
obtener una curva Dosis/Concentración vs. Respuesta con la preparación
Estándar, con un buen nivel de precisión y en un amplio rango de dosis, en el
caso de un ensayo in vivo, se utilizará un número determinado de animales
(por ej. 30), divididos en seis grupos, cada grupo es administrado con un nivel
de dosificación, es decir evaluamos 6 Dosis diferentes en total. En general
cuando se gráfica Dosis/Concentración o log. Dosis/Concentración vs.
Respuesta, las curvas obtenidas tiene forma sigmoideas, pero sólo debemos
considerar la parte central de dicha curva que es lineal, la cual toma el nombre
de línea de regresión Figura 2.

Línea de Regresión

Figura 2. Relación Logaritmo Dosis - Respuesta

Los parámetros a evaluar para la validación son similares a los descriptos en el


capítulo 2 y son: exactitud relativa, especificidad, precisión intermedia y rango,
respecto de otros parámetros como el límite de cuantificación y detección los
mismos en general no son considerados relevantes para un ensayo biológico

308
donde el objetivo sea reportar una potencia relativa, si bien la robustez no es
un requerimiento en la validación de los bioensayos, es recomendable
realizarlo como pre-validación o mediante ensayos adicionales inmediatamente
posterior a la validación.
Las definiciones para los parámetros descriptos anteriormente son las mismas
que las dadas en el capítulo de validaciones, la diferencia es que en estos
casos estamos en un ensayo biológico.

Métodos utilizados para el cálculo de la potencia relativa

Una vez validado el ensayo biológico procederemos a aplicar el ensayo como


control de calidad de rutina en las condiciones establecidas en la validación,
para lo cual deben ensayarse la preparación Estándar y Desconocido
simultáneamente, obteniéndose 2 curvas Dosis/Concentración vs. Respuesta:
una para el Estándar y otra para el Desconocido, las cuales se compararán
entre sí y por medio de análisis estadístico se estimara la potencia relativa y el
intervalo de confianza del 95 % de probabilidad.
Para seleccionar el método/modelo estadístico a aplicar en un bioensayo para
calcular la potencia relativa, debemos considerar: el tipo de dato y el diseño del
bioensayo, en general el modelo debe reflejar fuertemente el diseño del mismo
(completamente al azar, bloques al azar, etc.).
En los métodos para el cálculo de la potencia relativa, se asume primariamente
la similaridad o similitud, dos preparaciones son similares si ellas contienen el
mismo o los mismos constituyentes efectivos y en la misma proporción. Si esta
condición se cumple, la preparación Desconocida se comporta como una
dilución (o concentración) de la preparación Estándar.
La similaridad o similitud puede ser representada matemáticamente por la
siguiente fórmula:
FT(Z) = FS(Z)
FT: función dosis/concentración – respuesta para la preparación Desconocida
FS: función dosis/concentración – respuesta para la preparación Estándar

309
Z: representa la dosis/concentración
: potencia relativa de la muestra Desconocida relativa al Estándar
Los modelos estadísticos para la estimación de  en los ensayos cuantitativos
pueden ser:

Relación de pendientes (I)

Modelos estadísticos
Líneas Paralelas (II)

Para ambos modelos se asumen las siguientes condiciones: todos incluyen un


término residual, el cual se asume que es independiente de una medición a
otra y que tiene una variancia constante entre diferentes concentraciones.
Para aplicar cualquiera de estos dos modelos estadísticos deben cumplirse las
siguientes condiciones:
1. Los diferentes tratamientos deben ser asignados al azar a las unidades
experimentales.
2. Las respuestas a cada tratamiento deben distribuirse normalmente.
3. La desviación estándar de las respuestas dentro de cada grupo de
tratamiento, para la preparación Estándar y Desconocida, no debe diferir
significativamente una de otra (homocedasticidad de los datos).
4. Cada preparación (Estándar y Desconocida) en el ensayo debe ser
contrastada con el mismo número de dosis.
5. En el modelo de relación de pendientes, el intervalo entre dosis/
concentraciones adyacentes debe ser constante para todos los tratamientos en
el ensayo (progresión aritmética), en el modelo de líneas paralelas, el cociente
entre las dosis / concentraciones adyacentes debe ser constante para todos los
tratamientos del ensayo (progresión geométrica).
6. Debe haber un número igual de unidades experimentales para cada
tratamiento.
I. Modelo de relación de pendientes, este modelo puede aplicarse cuando:
A. La relación entre la dosis / concentración y la respuesta es lineal.
B. Las rectas Dosis/Concentración vs. Respuesta del Estándar y del
Desconocido tienen la misma ordenada al origen (no necesariamente debe

310
corresponder al origen de coordenadas), lo cual demuestra la similitud
estadística.
Para que el ensayo sea estadísticamente válido deben cumplirse, además de
las ya mencionadas (1, 2, 3) las siguientes condiciones:
1. La variación debida a los blancos en los diseños (h x d + 1) debe ser no
significativa, es decir la respuesta debida a los blancos no difiere
significativamente. En el ejemplo anterior sería (2 x 3 + 1)
dónde:
° h : Número de preparaciones en el ensayo incluyendo la preparación
Estándar
° d : Número de niveles de dosis para cada preparación ( excluyendo el
blanco)

Figura 3. Relación Dosis – Respuesta- Modelo de relación de pendientes

2. Demostrar estadísticamente la igualdad de las ordenadas al origen.


3. Demostrar linealidad (para ensayos que incluyen al menos tres dosis), el
mismo indica que la relación entre la dosis y la respuesta puede representarse
por una línea recta en todo el intervalo de dosis utilizadas, los valores medios
de respuesta de las preparaciones no se apartan significativamente de una
recta en el rango de dosis/concentraciones utilizadas.
Una vez establecida la validez estadística, se procede a estimar la potencia y el
intervalo de confianza del 95 % de probabilidad, a continuación se detallan las
ecuaciones para el cálculo de la potencia relativa:
Para la Preparación Estándar:

311
Y= a + b DE DE = Dosis preparación del Estándar
Para la preparación Desconocida:
Y= a +b1 DD DD = Dosis preparación Desconocida

Como hemos comprobado que el ensayo es válido podemos asegurar que las
rectas tienen una ordenada al origen (a) igual, pero difieren en el valor de la
pendiente (b y b1), si consideramos DE y DD frente a la misma respuesta Y,
igualando ambas ecuaciones tenemos:
a +b DE = a +b1 DD
DE / DD = b1 / b
PR = DE / DD
PR = b1 / b=
La Potencia relativa () de la preparación Desconocida está dada por la
relación de pendientes de ambas rectas, debido a esto este tipo de modelo se
denomina Modelo de Relación de Pendientes.
II. Modelo de líneas paralelas, para aplicar este modelo deben cumplirse las
siguientes condiciones:

A. La relación entre el logaritmo de la dosis y la respuesta se representa por


una línea recta en el intervalo de Dosis/Concentración utilizadas
B. Para cualquier preparación Test en el ensayo, la línea recta es paralela al
Estándar, lo cual demuestra la similitud estadística.

Figura 4. Relación Logaritmo Dosis/Concentración vs. Respuesta -Modelo de líneas paralelas

312
Para que el ensayo sea estadísticamente válido deben cumplirse las siguientes
condiciones:
1. Hipótesis de regresión: La pendiente de la curva log Dosis/Concentración vs.
Respuesta difiere significativamente de cero.
2. Hipótesis de paralelismo: Para cualquier preparación Desconocida en el
ensayo, la línea recta es paralela al Estándar.
3. Hipótesis de linealidad: La relación entre el logaritmo de la dosis/
concentración y la respuesta debe representarse por una línea recta en todo el
intervalo de dosis utilizadas. Una vez establecida la validez estadística, se
procede a estimar la potencia relativa y el intervalo de confianza del 95 % de
probabilidad.
Hemos demostrado que el término de linealidad es significativo entonces
procedemos a calcular la potencia para cada preparación Desconocida:
Y = a + b log DE
Y = a1 + b log DD
Hemos demostrado que ambas rectas son paralelas por lo tanto tienen la
misma pendiente (b) pero distinta ordenada al origen, trabajando a iguales
valores de respuesta (y)
a + b log DE= a1 +b log DD (1)
Despejando a1
a1 = a + b log DE - b log DD
a1 = a + b (log DE - log DD) como log. DE - log DD= log PR
a1 = a + b log PR
Reemplazando en (1) obtengo:
a + b log DE = a + b log PR + b log DD
b log. DE = b (log PR + log DD)
log. DE= log PR + log DD
log PR = log DE - log DD
log PR = log (DE / DD) = log 
Podemos observar que cuando las líneas Dosis/Concentración vs. Respuesta
son paralelas, la separación horizontal corresponde para una misma respuesta

313
a la diferencia en el nivel de actividad biologica, esta diferencia horizontal
corresponde numericamente a log  (logaritmo de la Potencia Relativa).
En la siguiente Tabla se resumen las condiciones que deben cumplirse para
aplicar cada uno de los modelos estadísticos discutidos anteriormente.

Condiciones para su Modelo Relación Modelo de líneas


aplicación de Pendientes Paralelas
Regresión X X
Linealidad X X

Intersección X _

Paralelismo _ X

Tabla 2. Condiciones para la aplicación de los modelos estadísticos

Ensayos cuantales: para los ensayos biológicos que dependen de respuestas


cuantales se aplica el modelo estadístico de líneas paralelas.
Como hemos visto anteriormente en estos ensayos se registra la fracción de
unidades experimentales en cada grupo tratado que ha mostrado una
respuesta determinada, cuando estas fracciones son graficadas vs. el log. de
las dosis la curva resultante es sigmoidea más que lineal, entonces una función
matemática que representa esta curvatura sigmoidea es utilizada para estimar
la curva Dosis vs. - Respuesta, la función más comúnmente utilizada es la
función de distribución normal acumulativa, de esta manera transformamos una
curva sigmoidea en lineal, es decir ahora se reemplaza cada respuesta (ej.
fracción o porcentaje de respuesta por grupo) por el correspondiente valor de
la distribución normal acumulativa estándar este valor usualmente llamado
"normit" tiene un rango teórico entre - ; + , entonces se propuso adicionar el
valor 5 a cada "normit" dando origen al termino probit, una vez que la curva
Dosis - Respuesta ha sido linealizada es posible aplicar el modelo de líneas
paralelas. Antes de calcular la potencia y el intervalo de confianza debe
determinarse que el ensayo es estadísticamente válido, para esto deben
cumplirse las hipótesis de linealidad y de paralelismo explicadas anteriormente.

314
Combinación Ponderada de resultados de múltiples ensayos

En general, un solo ensayo no es suficiente para reportar un valor de potencia


relativa para cumplir con las exigencias regulatorias, por lo tanto con el objetivo
de disminuir los efectos de la variabilidad, es necesario la repetición de
bioensayos independientes y combinar los resultados de los mismos para
obtener un solo valor reportable de Potencia Relativa. Para que puedan
combinarse los resultados de los diferentes bioensayos se debe demostrar que
los mismos son:
1. Independientes (la ejecución de un ensayo no afecta las probabilidades de
los posibles del otro), los errores aleatorios en la totalidad de los factores
esenciales que influyen sobre el resultado en un bioensayo, tienen que ser
independientes de los correspondientes aleatorios en el otro. Ensayos
realizados en distintos días pero utilizando las mismas soluciones originales y
conservadas de Estándar no corresponden a ensayos independientes.
2. Las potencias individuales estimadas forman un conjunto homogéneo: los
resultados son considerados homogéneos cuando difieren solamente debido a
los errores al azar dentro del ensayo.
3. El número de grados de libertad de los errores residuales individuales, no es
inferior a 6 y preferiblemente es mayor a 15.
4. Para cada ensayo el valor de C está próximo a 1 (menor de 1.1)

Hipótesis Esenciales para la validez fundamental de los Ensayos


Biológicos

A. Las diferencias entre los valores medios de las respuesta debido a los
distintos tratamientos se deben únicamente a los mismos o a variaciones
muéstrales del azar, con esto estamos suponiendo que todos los demás
factores que indudablemente afectan las respuestas han sido controlados por
el investigador. Por lo tanto el investigador debe estudiar cuales son las
condiciones que pueden modificar las respuestas y poder controlarlas, por ej:

315
A1. Deberán mantenerse constantes las condiciones ambientales (macro y
microambiente)
A2. El experimento deberá diseñarse tal que las distintas fuentes de
variabilidad puedan segregarse en el análisis de varianza.

A3. Distribuir las unidades experimentales al azar entre los distintos


tratamientos. Azar significa: un método de selección de unidades de muestreo
de modo tal que una muestra tenga una probabilidad fija y determinada de ser
seleccionada.
B. La respuesta esperada debe ser una función monótona determinable de
la dosis dentro del rango de dosis utilizadas, es decir que siempre crece o
siempre decrece. Muchos errores pueden cometerse cuando los ensayos son
realizados con pocas dosis y sobre reactivos biológicos no bien conocidos
como ser la cepa o colonia de rata que se emplea etc. Entonces con dosis muy
grandes pueden obtenerse respuestas que pueden ser menores que las
correspondientes respuestas a dosis más bajas, por lo tanto debe conocerse el
sistema biológico de manera de asegurar que las respuestas que se está
evaluando invaliden el ensayo en lo fundamental, este hecho puede no ser
detectado con los test estadísticos.

C. Las respuestas producidas por la preparación Estándar y la preparación


Desconocida deben ser debidas a un mismo principio activo. En el caso de que
esté presente más de un principio activo, éstos deben estar en igual proporción
en ambas preparaciones. Si se cumple esta hipótesis de similitud las funciones
que relacionan las respuestas con las dosis deben tener la misma forma para
ambas preparaciones en las mismas condiciones experimentales.

Hipótesis Esenciales para la validez estadística

A. Hipótesis de linealidad: La relación entre Y (valor esperado de Y) y X


debe expresarse por la ecuación de una línea recta por lo menos en el

316
rango de observaciones utilizadas en el cálculo: Y= a + bX, esta recta
puede calcularse por el método de cuadrados mínimos.

B. Hipótesis de normalidad: la variable Y se distribuye normalmente para


cada nivel de dosis X utilizado en el cálculo.

C. Hipótesis de Homocedasticidad: la varianza de la respuesta o


transformación de las mismas es independiente del nivel de dosis
utilizado. Para corroborar esta hipótesis puede utilizarse el test de Bartlet
en el cual se estudian las diferencias entre las varianzas. Si en una serie
de ensayos existe la tendencia a un aumento o disminución de las
varianzas de las respuestas con el aumento de las dosis deberá
procurarse otra transformación de las respuestas, que sin alterar el
cumplimiento de las otras hipótesis, iguale las varianzas en los distintos
grupos de dosis.

Preguntas Orientadoras

1. Indique cuando es necesario recurrir a un ensayo biológico.


2. Describa como se clasifican las respuestas en un ensayo indirecto.
3. Describa como demuestra la similitud en un modelo estadístico de
líneas paralelas
4. Qué parámetros evaluaría durante la validación de un bioensayo?
5. Qué condiciones se deben cumplir para calcular la potencia relativa
en un modelo estadístico de relación de pendientes.

Test de Autoevaluación

1. Los ensayos biológicos pueden ser solo realizados en:


(a) Animales
(b) Células
(c) Células y animales
(d) Animales, células y tejidos

317
2. Un ensayo biológico debe:
(a) Siempre reproducir exactamente la actividad biológica del
principio activo.
(b) No siempre debe reproducir exactamente la actividad biológica
del principio activo y no debe establecer correlación con la
misma
(c) No siempre debe reproducir exactamente la actividad biológica
del principio activo pero debe establecer correlación con la
misma.
(d) Ninguna es correcta

3. En un ensayo directo las respuestas pueden ser:


(a) Cuantitativas
(b) Cualitativas
(c) Cuantitativas y cualitativas
(d) Ninguna es correcta

4. Para reportar un valor de Potencia relativa, en general es suficiente


con:
(a) Un solo ensayo independiente
(b) Combinación de varios ensayos independientes
(c) Combinación de varios ensayos independientes y con
resultados homogéneos
(d) Combinación de varios ensayos independientes, con
resultados no homogéneos

5. En los ensayos directos puedo aplicar los siguientes modelos


estadísticos para el cálculo de la potencia relativa.
(a) Líneas paralelas
(b) Relación de pendientes
(c) Líneas paralelas y relación de pendientes
(d) Ninguna de las anteriores.

318
Bibliografía

1. World Health Organization WHO Technical Report Series, No. 932,


Annex 2- (2006) Recommendations for the preparation, characterization and
establishment of international and other biological reference standards.
2. Ministerio de Salud – ANMAT. Farmacopea Argentina. VIII ed. Vol. 1.
Buenos Aires
3. European Pharmacopoeia 3rd Edition. Statistical (2000) Analysis of
Results of Biologicals Assays and Tests (5.3). Supplement.
4. Farmacopea de los Estados Unidos de América (USP 34) (2011) Design
and Analysis of Biological Assays. General Chapter <111>. Rockville.
5. Pharmacopeial Forum. (2010) Design and Development of Biological
Assays – General Chapter <1032>
6. Pharmacopeial Forum. (2010) Biological assay Validation – General
Chapter <1033>
7. Pharmacopeial Forum.(2010) Analysis of Biological assays- General
Chapter <1034>
8. Michael. J. Groves. (2006) Pharmaceutical Biotechnology, Second
Edition, Taylor and Francis
9. M. Would (2006) Pharmacokinetics and Toxicology of Therapeutics
Proteins: Advances and Challenges. Journal of Biological Chemistry. 3 (4):73-
92
10. Lee, J. Wang, Y. Moxness, M. and De Silva, B. (2011) Bioanalytical
Considerations in the Comparability assessment of Biotherapeutics. Bioanalysis
3 (6): 613-622
11. Roberto Rodriguez Diaz, Tim, Wehr and Stephen Tuck. (2005)
Analytical Techniques for biopharmaceutical Development. Taylor and Francis.
12. Rosenkranz, A y Glancszpigel, R. (1972) Valoración de Productos
Biológicos. Revista SAFYBI, Vol. 12, N° 40: 705-708
13. Glancszpigel, R. Y Rosenkranz, A. (1973) Valoración de Productos
Biológicos. Revista SAFYBI, Vol. 13, N° 41: 762-765
14. Rosenkranz, A y Glancszpigel, R. (1975) Valoración de Productos

319
Biológicos. Revista SAFYBI, Vol. 15, N° 44: 870-877
15. ICH (1999) Topic Q 6 B, Specifications: Test Procedures and
Acceptance Criteria for Biotechnological/ Biological Products.

320
CAPITULO 14
TRAZABILIDAD DE MEDICAMENTOS
Pablo Quiroga

Introducción

La Organización Mundial de la Salud (OMS) conjuntamente con los diferentes


países del mundo y a través de sus Agencias Regulatorias, desde hace más de
20 años, lucha denodadamente para evitar el ingreso de medicamentos
falsificados a la cadena legítima de distribución y que los mismos lleguen a los
pacientes, ocasionando diferentes problemas a la salud de los mismos y a los
sistemas de salud.
Los productos médicos falsificados (medicamentos, vacunas, derivados
sanguíneos, otros productos biológicos, productos diagnósticos, dispositivos
médicos, su combinación y sus componentes) constituyen el mayor riesgo a la
salud pública para todas las comunidades en el mundo.

Medicamento Falsificado

En 1992 se realiza el primer Workshop sobre “Counterfeits Drugs- Medicinas


Falsificadas” organizado por la OMS y la International Federation of
Pharmaceutical Manufacturers Associations (IFPMA), en el mismo se acuerda
la siguiente definición para medicamento falsificado: “Medicamento falsificado
es un producto manufacturado indebidamente, de manera deliberada y
fraudulenta en lo que respecta a su identidad o su origen. Pueden incluir
productos con los ingredientes correctos o con los ingredientes incorrectos, sin
principios activos, con principio activo insuficiente o con envasado falsificado”.
La necesidad de una mayor cooperación internacional para combatir los
productos médicos falsificados ha sido reconocida por la OMS en sus

321
resoluciones WHA41.16 (1988), WHA47.13 (1994), WHA52.19 (1999) y
WHA57.14 (2004).
El grupo de trabajo para luchar contra la falsificación de medicamentos fue
establecido en 1999 en el marco de la Red Panamericana de Armonización de
la Reglamentación Farmacéutica. Se realizó un estudio de alcance regional,
para determinar la situación relativa a la falsificación de medicamentos en los
países de la Región de las Américas. El estudio reveló que la falsificación de
medicamentos era un problema que se planteaba en grados diversos en la
mayoría de los países de la Región.
En el año 2006 la OMS propone la creación del grupo IMPACT (International
Medical Products Anti-Counterfeiting Taskforce) y en septiembre de 2006
anuncia su creación. IMPACT es definido como “una coalición voluntaria de
partes interesadas, cuyo propósito es coordinar actividades internacionales
contra la falsificación de productos médicos, con el propósito de proteger la
salud pública”, dicha coalición en el año 2007, elabora una nueva definición de
producto médico falsificado en el contexto de los principios de legislación “Un
producto médico es falsificado cuando hay una presentación falsa en relación a
su identidad (I), historia o fuente (II). Esto aplica al producto, a su recipiente u otra
información del empaque o etiqueta. La falsificación se puede aplicar tanto a
productos de marca como genéricos. Las falsificaciones pueden incluir
productos con ingredientes/componentes(III) correctos, como ingredientes/
componentes incorrectos, sin ingredientes activos, con cantidades incorrectas
de ingredientes activos o con empaques falso. Los defectos de calidad o el no
cumplimiento con las Buenas Prácticas de Manufactura o de Distribución
(GMP/GDP) en productos legítimos y autorizados no se deben difundir con
falsificación”.
En la reunión realizada en la Ciudad de Buenos Aires en noviembre de 2012,
los países integrantes de la OMS, acordaron avanzar en el fortalecimiento de
las capacidades de regulación de las naciones para combatir la falsificación de
medicamentos, destacando el desarrollo de acciones para la educación a los
consumidores, los profesionales de la salud y la industria para evitar la
falsificación de productos.

322
Impacto de los medicamentos falsificados

La falsificación de productos médicos, constituye un grave problema de salud


pública, que pone en peligro vidas humanas y menoscaba la credibilidad de los
sistemas sanitarios. Esos productos comprometen los progresos logrados en
materia de salud pública y, además de perjudicar directamente a los pacientes
y causar fallos terapéuticos, erosionan la confianza en el sistema de salud en
su conjunto.
Los medicamentos falsificados pueden ser perjudiciales para los pacientes de
dos maneras: individualmente y a nivel de sociedad. La toma de sustancias
adulteradas o la falta de tratamiento pueden dañar a un individuo, desde
reacciones adversas inesperadas a la toxicidad, anafilaxis o fracaso terapéutico
(ej. en el caso de los antipalúdicos con insuficientes ingredientes activos
pueden contribuir a aumentar la farmacorresistencia, la inmunización con una
vacuna falsificada no protegerá de una enfermedad) e inclusive hasta la
muerte. Los tratamientos incorrectos son un riesgo para la salud pública, ya
sea por la transmisión incrementada de la enfermedad o por el desarrollo de
resistencia al antibiótico. Además, se puede dañar la credibilidad de un sistema
nacional de salud si los medicamentos falsificados ingresan a la cadena de
distribución legítima, pues puede inducir en los pacientes temor irracional a
tratamientos perfectamente seguros. La falsificación tiene consecuencias
sociales y económicas significativas. Más aún, los pacientes pueden recibir
productos inseguros o inefectivos y estar, consecuentemente, en apreciable
riesgo.
La falsificación es un problema grande en el sistema de salud global.
Crecientemente afecta al mundo desarrollado así como al mundo en desarrollo.
No se trata meramente de un problema de propiedad intelectual. La salud de
pacientes en todo el mundo se ve amenazada.
Una propuesta integrada para abordar los problemas causados por medicinas
falsificadas es esencial; la Trazabilidad constituye un elemento clave en la
lucha contra las mismas.

323
Trazabilidad de Medicamentos

La Trazabilidad de Medicamentos puede ser dividida en: la trazabilidad de las


materias primas e insumos en los procesos de fabricación, y la trazabilidad en
los procesos de distribución o trazabilidad logística, de esta última y de las
diferentes tecnologías antifalsificación y autenticación, nos encargaremos en el
desarrollo de este capítulo.
La trazabilidad de productos farmacéuticos es un elemento clave en una
solución efectiva al problema de los medicamentos falsificados.
La palabra trazabilidad no existe en el idioma castellano, el término apropiado
sería rastreo y seguimiento (track and trace): rastreo es la habilidad de conocer
la ubicación de un producto en cualquier momento y seguimiento es la
habilidad de saber dónde ha estado ese producto en el pasado, es decir
conocer su historia. (Ver figura 1).
La trazabilidad constituye la base para un nivel más alto de seguridad para el
paciente, confiriendo la habilidad de controlar desvíos de medicamentos, y
falsificación de productos farmacéuticos. Estas prácticas ilegales plantean una
amenaza para el consumidor/paciente al introducir drogas potencialmente
peligrosas en el mercado.
A continuación se proponen otras definiciones o interpretaciones de
trazabilidad: “Capacidad de seguir el rastro de una unidad específica de un
producto para la salud a través de la cadena de distribución a medida que éste
se mueve entre organizaciones de fabricantes a distribuidores, a hospitales, a
pacientes. Los productos son rastreados rutinariamente por obsolescencia,
inventario, retiro potencial de la mercadería del mercado, y propósitos
logísticos”
“Capacidad de identificar el origen de una unidad en particular y/o la partida del
producto, y su localización dentro de la cadena (incluido el hospital) por
referencia a registros mantenidos cerca del origen de la secuencia. Los
productos son rastreados por propósitos tales como: retiro del mercado,
investigación de quejas, y mantenimiento y mejoramiento del producto.”
(Fuente: GS1 Guía de Trazabilidad, 2001).

324
Esquematización sistema de rastreo y seguimiento

Distribuidora Distribuidor Farmacia


Producción /
Embalaje

Rastrear el Rastrear el Rastrear el


Serializar Producto Producto Producto
Registro SMI y Autenticar Autenticar Autenticar
ficha técnica

Rastreo y Seguimiento de la base de datos centralizada


o descentralizada (distribuida)

Figura 1. Esquematización sistema de rastreo y seguimiento

IMPACT, está constituido entre otros por el grupo IMPACT Working Group on
Technology, el mismo tiene como finalidad la evaluación o estudio de las
tecnologías disponibles de antifalsificación, rastreo y seguimiento (proceso de
registro de todas las transacciones llevadas a cabo para un determinado envío
durante toda la cadena de distribución). La identificación del ciclo de vida de un
medicamento, desde el punto de fabricación hasta la cama del paciente, con
todos los pasos y actores involucrados definidos, aumenta la seguridad del
proceso de administración del medicamento, aumentando significativamente la
seguridad del paciente y reduciendo el riesgo de la cadena de distribución.
La trazabilidad es parte de las Buenas Prácticas de Manufactura(IV) (GMP)
promulgadas por la Administración Federal de Drogas y Alimentos de los
(V)
Estados Unidos (FDA) ; esto significa que los fabricantes deben rastrear sus
productos desde su origen hasta la primera entrega (mayorista u hospital). Para
lograrlo, los fabricantes han desarrollado soluciones que son altamente
efectivas, siempre y cuando los productos estén en su propia esfera de

325
influencia. Así, sumado a su número de identificación, los productos tienen que
portar un número de lote y la fecha de vencimiento. El seguimiento es también
parte de las Buenas Prácticas de Distribución y Almacenamiento (GDP y GSP
respectivamente) que los mayoristas deben respetar.
En la 63º Asamblea Anual Mundial de Salud -OMS- llevada a cabo el 22 de
abril de 2010 en la página 5, se describen las directrices generales sobre
garantía de Calidad las cuales incluyen recomendaciones que abarcan desde
el desarrollo y la producción del medicamento hasta su distribución a los
pacientes, estas directrices figuran en el sitio Web de la OMS bajo el título
“Temas de Salud”, haciendo referencia a la trazabilidad logística, por lo tanto, la
trazabilidad se basa en las Buenas Prácticas de Manufactura (GMP), las
Buenas Prácticas de Distribución (GDP) y las Buenas Prácticas de
Almacenamiento o Conservación (GSP).

Figura 2. Buenas Prácticas- base de la trazabilidad

El seguimiento de fármacos, del fabricante al paciente, todavía no se ha


logrado a nivel mundial y el mismo solo se puede lograr si se cuenta con una
identificación adecuada del producto.

326
Identificación y codificación de productos farmacéuticos

La codificación única y estandarizada de los medicamentos puede llevar a


oportunidades de mejorar la seguridad del paciente y elevar la seguridad y
eficiencia de la cadena de distribución, con una mejor posibilidad de rastreo de
los medicamentos en el mundo.

Figura 3. Relación Codificación y seguridad del paciente

Tecnologías Antifalsificación

El objetivo o función primario de las tecnologías de antifalsificación, es la


autenticación del producto médico, por las agencias regulatorias, la industria
farmacéutica e idealmente por el público en general.
Las tecnologías antifalsificación se pueden clasificar en las categorías
siguientes:

1. Visibles (Overt)

2. Ocultas (Covert)

3. Marcadores o Técnicas Judiciales ( Forensic Techniques)

327
4. Serialización /Rastreo y Seguimiento (Serialization/Track ad Trace).

1. Tecnologías visibles (Overt): estas tecnologías o características están


destinadas a permitir a los usuarios finales (en este caso pacientes) verificar la
autenticidad del producto, dentro de este grupo tenemos: hologramas,
dispositivos ópticamente variable, films y tintas de seguridad, gráficos de
seguridad y numeración secuencial de los productos.
A continuación, se describen las ventajas y desventajas de las tecnologías
visibles de autenticación.
Ventajas Desventajas
Verificación por el usuario / paciente Requieren educación del usuario/
paciente y no siempre es ampliamente
interpretada
Tecnologías nuevas más seguras Pueden ser fácilmente imitadas
Pueden agregar un atractivo decorativo Pueden adicionar un costo significativo
Pueden actuar como disuasorios para los Pueden depender o basarse en
falsificadores características ocultas para su
autenticación
Pueden ser reutilizadas
Pueden dar una Falsa seguridad

Tabla 1. Ventajas y desventajas de las tecnologías visibles de autenticación

2. Tecnologías ocultas (Covert)


El objetivo de estas tecnologías, es permitir al propietario de la marca
identificar productos falsificados, respecto del público general o pacientes, los
mismos no tienen los medios para percibir su presencia o para verificar los
mismos, no son fácilmente detectables o copiables sin un conocimiento
especializado. Si las características encubiertas son comprometidas o
publicitadas, su valor de seguridad puede perderse parcial o totalmente, dentro
de este grupo podemos describir: impresión invisible, imagen integrada, marcas
de agua digitales, marcas ocultas o impresas, diseño anticopia o antiescan,
códigos laser, sustratos, olor, etc. A continuación, se describen las ventajas y
desventajas de las tecnologías de autenticación ocultas.

328
Ventajas Desventajas
Pueden ser simples y con bajo costo de Se necesita estricto secreto
implementación
Necesitan aprobación regulatoria Si es ampliamente utilizado o conocido es
fácilmente copiable
Pueden ser fácilmente agregadas o Opciones más seguras agregan
modificadas complejidad y costo
Puede ser aplicado en la propia empresa ( Si es aplicado a través de los
in-house) o a través de los proveedores proveedores de componentes existe
de los componentes mayor riesgo de que se filtre la
información

Tabla 2. Ventajas y desventajas de las tecnologías ocultas

3. Marcadores o Técnicas Judiciales ( Forensic Techniques)


Soluciones de alta tecnología las cuales requieren test de laboratorios o Kits
específicos para proveer autenticidad científica, estos marcadores representan
un subgrupo de tecnologías o características ocultas o encubiertas, pero
difieren con las mismas en la metodología requerida para la autenticación,
podemos enumerar: etiquetas o marcadores químicos, biológicos o de ADN
(Ácido Desoxiribonucleíco), relaciones isotópicas, micromarcadores o
microetiquetas.

4. Serialización
La serialización implica asignar una identidad única a cada unidad de stock
durante la fabricación, el cual se mantiene a lo largo de la cadena de
comercialización hasta su consumo, esta identidad normalmente incluirá
detalles del nombre del producto, concentración/dosis, N° de lote y fecha de
Vencimiento. El objetivo de la serialización permite:
 Rastrear un determinado medicamento, a través de la cadena de
comercialización, en cada punto donde es factible capturar datos.

 Proveer trazabilidad a lo largo de la historia de cualquier medicamento,


(denominado Pedigree Electrónico) la cual está sujeta a los puntos de
control.

 Permitir la autenticación de los datos en cualquier momento y por lo


tanto del pack o unidad sobre el cual se aplicó.

329
El beneficio más obvio de la serialización, se observa en la logística de la
cadena de comercialización, donde una mayor transparencia en los inventarios
y los patrones de demanda pueden conducir a mejorar la eficiencia y reducir los
costos. Otro beneficio es la habilidad o capacidad de identificar un producto
dispensado a un paciente, impidiendo errores en la medicación y la posibilidad
de detectar lotes de productos defectuosos rápidamente. La capacidad de
controlar estrictamente y autenticar todos los productos a través de la cadena
de comercialización, reduce enormemente las posibilidades de falsificación,
robo y/o que diversos productos falsificados ingresen a la cadena de
distribución legitima sin ser detectados.
Si bien el rastreo y seguimiento por sí mismo puede no ser inmune a la copia o
falsificación, su seguridad esta enormemente asegurada, por la inclusión de
una serialización única y aleatoria o numeración no secuencial, aplicada
idealmente a los niveles del envase individual del medicamento. Si la
serialización fuera secuencial el nivel de seguridad puede disminuir, debido a
que la secuencia es predecible, mientras que la serialización al azar utilizando
algoritmos altamente seguros o métodos de encriptado aumenta su seguridad.
Los packs individuales aún pueden ser copiados, pero la base de datos
identificará duplicados o número de serie inválidos como también aquellos que
han sido cancelados o han vencido, o con detalles del producto no válidos.
Cuando la serialización es segura y es aplicada en forma visible a un pack
puede ser autenticada por el paciente, ya sea por vía telefónica o internet,
linkeado a la base de datos. Esta codificación única y estandarizada de los
medicamentos puede llevar a oportunidades de mejorar la seguridad del
paciente y elevar la seguridad y eficiencia de la cadena de distribución, con una
mejor posibilidad de rastreo de los medicamentos en el mundo. La forma más
común de auto-identificación es el código de barra, que ha estado disponible
por años y es una tecnología estándar generalmente aceptada. Su principal
limitación es la cantidad de información que puede contener un código de
barra tradicional. Sin embargo, los más recientes códigos de matriz de datos
permiten que las etiquetas contengan conjuntos de caracteres ASCII (American
Standard Code for Information Interchange) completos y usen múltiples modos

330
de codificación que permiten hasta 2335 caracteres. Los códigos de Barras
están compuestos por líneas de alta densidad o códigos de barras
bidimensionales, los cuales incorporan la identidad a nivel de la unidad de
envase, los que son escaneados y referenciados a una base de datos externa.
Una implementación popular es el código DataMatrix de dos dimensiones, y
otra posibilidad incluye códigos PDF417. Un código de dos dimensiones típico
puede abarcar 1 cm2 o menos, y aún contener hasta un Kbyte de datos.
Cuando el espacio no es una limitación los códigos de barras lineales pueden
ser utilizados. Los códigos pueden ser impresos, por métodos online
incluyendo inkjet o impresión digital, lo que permite la operación a través de
una computadora y la transferencia de los registros a una base de datos
central. Se han desarrollado sistemas jerárquicos donde la etiqueta de una caja
de envío, está sujeta a la identidad de todo el contenido de la caja y esto puede
extenderse hasta la cadena de etiquetado de los pallets, lo que implica la
necesidad de escaneo en línea a través de la cadena de distribución.
Las tecnologías conocidas como de nanoimpresión, permiten la aplicación
microscópica en tabletas individuales. El uso de tintas UV permiten impresiones
invisibles sobre cualquier superficie incluyendo ampollas y viales de vidrio
La otra tecnología de identificación principal es, Identificación por Radio
Frecuencia (RFID). Esta tecnología crece en aceptación y tiene ahora
considerable potencial para la industria farmacéutica, se proyecta que la
tecnología RFID será una tecnología disponible y viable en un futuro cercano.
La Identificación por Radiofrecuencia, implica la utilización de una antena con
un microchip ubicado en su centro, este último contiene información específica
del producto y el lote, la cual puede ser leída a distancia, sin la necesidad de
estar frente al producto, una diferencia sobre el código de barras. La
radiofrecuencia utilizada determina el rango y sensibilidad, sin embargo una
sola especificación no necesariamente cubrirá todas las aplicaciones. Algunos
sistemas permiten la captura de registros múltiples a partir de una mezcla de
productos distintos, sin embargo hay algunos problemas relacionados con la
orientación de las etiquetas y de la absorbancia de la señal de radio por
líquidos y films. Una clara ventaja del RFID es que tiene el potencial para ser

331
totalmente automatizado en las droguerías e inclusive en farmacias, sin la
necesidad de intervención manual.
Actualmente se están desarrollando especificaciones para los equipos y datos
estándar. El costo del este tipo de etiquetado continua siendo una barrera para
la aplicación sobre packs individuales. La robustez de este tipo de etiquetado
durante la aplicación y el manejo a través y hasta el final de la vida útil es otro
problema.
La selección de la tecnología depende entre otros aspectos, del espacio con
que se dispone para la codificación, cantidad de datos a codificar, de la
disponibilidad de tecnología de seguridad, que no perjudique el producto y
provea una tasa de exactitud de lectura de más del 99,9%. La simple verdad es
que cualquier etiqueta electrónica mejorará los procesos de la cadena de
abastecimiento, aumentando la eficiencia y los márgenes de ganancia así
como reduciendo la amenaza de falsificación y robo. Promoverá mejor servicio
y control de existencias, reducirá reintegros y permitirá mejor control de retiro
de productos.
A continuación describiremos los sistemas de trazabilidad implementados o a
implementar en un futuro en nuestro país, Europa, Estados Unidos y Brasil.

Trazabilidad en Argentina

En el año 2011, el Ministerio de Salud de La Nación, establece por Resolución


4357/2011 la implementación del Sistema Nacional de Trazabilidad, y el 23 de
mayo del 2011, La Administración Nacional de Medicamentos, Alimentos y
Tecnología Médica ( ANMAT) emite la Disposición 3683/2011, en la cual se
describen los lineamientos para la implementación del mismo, por otra parte se
da a conocer la Guía Técnica Estándar de Codificación y Trazabilidad de
Medicamentos, en la cual se describe la Identificación Univoca de
Medicamentos, la cual es mandataria y corresponde a aquella que posibilitará
la identificación de cada producto y deberá ser asociada físicamente a cada
unidad de producto, dicha identificación responde a las claves de

332
identificación del estándar Global GS1, específicamente: el GTIN o Número
Mundial de Artículo Comercial, acompañado de un número seriado único por
cada estuche secundario. De forma adicional, optativo, se puede incluir el
Número de Lote y el Vencimiento.
En general, un portador de datos, es un medio para representar en formato
legible por equipos de lectura datos, el cual es utilizado para permitir la captura
automática de la información contenida, siendo los más frecuentes los códigos
de barras, códigos matriciales y etiquetas de Radio Frecuencia (RFID)
descriptos anteriormente. En particular el portador de datos adecuado para la
marcación de los medicamentos adoptado, corresponde al símbolo
GS1Datamatrix ECC-200, el cual se muestra a continuación.

Figura 4. Esquematización símbolo GS1Datamatrix ECC-200

A los efectos de facilitar el inicio del proceso de trazabilidad, se considera apto


durante las etapas iniciales de implementación, la utilización de los portadores:
GS1-128 y RFID, los cuales son compatibles con la simbología Datamatrix
adoptada, por ser el portador mundialmente reconocido y recomendado para la
identificación de medicamentos. Es requisito en todos los casos, en adición al
portador, incorporar la legibilidad humana asociada, para permitir el
entendimiento por las personas. Tanto el código de Lote, como la Fecha de
Vencimiento son datos requeridos al momento de efectuar la transacción de los
eventos, y deberán estar vinculados al GTIN y Número de Serie.
Opcionalmente pueden ser incluidos dentro del mismo transportador de datos,
utilizado para la representación del GTIN y el Número de Serie. Se destaca
en caso de incorporarlos a las codificaciones lineales, garantizar no obstruir la
lectura de los datos de identificación unívoca.

333
Si bien la identificación de las mismas no es de cumplimiento mandatorio, las
mismas contribuirán a una mejor administración de los diferentes niveles de
empaque de productos. Se entiende por Unidad de Despacho a la agrupación
de Unidades Logísticas: Un artículo de cualquier composición establecido para
el transporte y/o almacenamiento que necesita ser administrado a lo largo de la
cadena de abastecimiento. Se recomienda utilizar para la identificación de las
unidades logísticas un portador de datos GS1-128 con la cadena de elementos
GTIN + N° de Serie. En el caso de identificación de Pallets el estándar GS1 a
utilizar debe ser el SSCC (Serial Shipping Container Code). Identificación de
Empaque Secundario con Información Adicional: Tanto un portador Datamatrix
ECC-200, como así también el código GS1-128 permiten almacenar otro tipo
de información que puede ser de utilidad para los integrantes de la cadena de
abastecimiento del Sector Salud. La adición del Vencimiento y del Lote son
optativas, y no deben entorpecer la lectura de los datos de identificación
univoca. A continuación se describe un Ejemplo GS1 Datamatrix ECC 200 –
GTIN + Vencimiento + Lote + N° de Serie

Figura 5. Esquematización GS1 Datamatrix ECC 200 – GTIN + Vencimiento + Lote + N° de


Serie

Identificación de Pallets y Unidades de Despachos: Para el manejo de este set


de unidades logísticas, puede considerarse la utilización de tecnología
RFID/EPC a fin de poder agilizar los procesos logísticos de alto volumen. En
movimientos a escala esta solución es la considerada más apta.

334
Trazabilidad en Europa

El 4 de julio del 2011, se pública en el Diario Oficial de la Unión Europea (UE),


la Directiva 2011/62/UE, sobre Medicinas Falsificadas, La nueva Directiva
modifica la 2001/83/CE, en lo relativo a la prevención de la entrada en la
cadena de suministro legal de medicamentos que son falsificados en cuanto a
su identidad, su historial o su origen e introduce dispositivos de seguridad para
garantizar la identificación, la autenticidad y la trazabilidad de los
medicamentos desde su fabricación hasta el consumidor final, se establece un
código comunitario sobre medicamentos de uso humano, La nueva legislación
actualiza las normas vigentes e introduce dispositivos de seguridad que
han de incorporarse a los envases de los medicamentos con el objetivo de
garantizar su autenticidad, identificar cajas individuales y verificar si se ha
tratado de alterar el envase externo, los mismos incluyen, una etiqueta o
envase a prueba de manipulaciones así como la serialización a nivel de artículo
unitario en forma de un número único e individual y no predictivo, legible tanto
por el ojo humano como por lectores portátiles de datos. En la Comunidad
Europea, se considera cómo el formato más probable para incluir dicha
serialización, el código de barras tipo 2D, DataMatrix. Como norma general,
estos dispositivos deberán aplicarse a todos los medicamentos de venta bajo
receta, excepto para aquellos casos en que se considere que no exista
posibilidad de riesgos para la salud. Solo se utilizarán en los medicamentos
que no requieren prescripción, en casos excepcionales si hay riesgo de
falsificación.
En caso de que el medicamento vuelva a ser envasado, los dispositivos de
seguridad deberán ser sustituidos por otros equivalentes. La directiva antes
mencionada, regula también las ventas de productos farmacéuticos en internet,
ya que la misma representa una de las principales vías de entrada en el
mercado legal de la UE. No en todos los Estados es legal vender fármacos por
internet pero, en aquellos en los que sí lo es, los vendedores deberán
conseguir una autorización especial, portar un logo europeo y además estar
catalogados en una página web a nivel estatal y en una base de datos

335
europea. A través de este logo, los pacientes podrán identificar las
farmacias autorizadas, que estarán conectadas a una web central en
cada Estado miembro.

Las webs nacionales estarán, a su vez, enlazadas a una web europea.


La European Federation of Pharmaceutical Industries and Associations (EFPIA)
recomienda para la identificación y codificación de los productos farmacéuticos
a nivel Europeo: Cuatro items de datos son codificados en una matriz a nivel
del envase secundario individual.

Figura 6. Datos a codificar en la matriz del envase secundario individual

EFPIA a diferencia del sistema de trazabilidad Argentino, propone la


identificación en el punto de dispensa, dicho sistema se esquematiza en la
figura siguiente.

Figura 7. Esquema del sistema de Identificación en el punto de dispensa

336
Trazabilidad en Estados Unidos

En febrero del 2004, la Food and Drug Administration (FDA), emite el


documento Combating Counterfeit Drugs (Combatiendo las Drogas
Falsificadas), en el mismo reconocía la importancia y el potencial de la
tecnología electrónica de seguimiento-y-rastreo para hacer más segura la
distribución de drogas, y propone implementar la tecnología de Identificación
por Radiofrecuencia (RFID), también propone Tecnologías de autenticación:
Hologramas, etiquetas, tintas que cambian de color, marcadores químicos, etc.,
para garantizar la autenticidad tanto del envase como del producto
farmacéutico e indica que FDA probablemente no especificará una sola
tecnología de autenticación para que los falsificadores potenciales no se
concentren en vencer un solo método. En el mismo propone el etiquetado de
productos farmacéuticos y biológicos a nivel de unidad de dosis de uso, con un
código de barra lineal el cual debería contener los datos que se esquematizan
a continuación.

Figura 8. Datos a etiquetar a nivel de unidades de uso.

En septiembre del año 2007, FDA requiere desarrollar, identificar y validar,


tecnologías efectivas para las drogas bajo prescripción, con el propósito de
asegurar la cadena de distribución de medicamentos, en su lucha contra las
medicinas falsificadas,
En marzo del 2010, FDA, da a conocer la Guidance: Standards for Securing the
Drug Supply Chain-Standardized Numerical Identification for Prescription Drug
Packages, en la misma se describe el desarrollo de una identificación numérica

337
normatizada para las drogas de prescripción o bajo receta, solamente a nivel
del envase individual. La identificación numérica normatizada/estandarizada,
debe realizarse con el Código Nacional de la Droga Serializado, el mismo está
compuesto por el producto farmacéutico específico combinado con un número
de serie específico (numérico o alfanumérico) con no más de 20 caracteres,
este último es generado por el elaborador o el encargado del reempaque para
cada envase individual, a continuación se propone el ejemplo de la Guidance
antes mencionada.

Figura 9. Ejemplo Código Nacional de las Drogas Serializado.

La identificación numérica normatizada/estandarizada, no incluye el Número de


Lote y / o la Fecha de vencimiento, debido a que por las regulaciones del FDA,
dicha información debe estar en la etiqueta de cada envase. Los elaboradores
si lo consideran apropiado pueden incluir igualmente está información y en ese
caso la información debe ser acorde con el Estándar Global 1 (GS1).
La identificación numérica normatizada/estandarizada, deberá ser legible tanto
por el ojo humano como por lectores portátiles de datos. La tecnología puede
ser tanto códigos de barras 2D o RFID.

Trazabilidad en Brasil

El 14 de enero de 2009, Brasil, aprueba la Ley N° 11903, la cual crea el


Sistema Nacional de Control de Medicamentos, La Ley establece el rastreo de
todo tipo de medicamentos existentes en el país, desde el fabricante hasta su
venta al consumidor final. El control debe llevarse a cabo con tecnologías para
la captura electrónica, almacenamiento y transmisión de datos. Cada producto
mostrará un exclusivo código de identificación.

338
El código bidimensional, el GS1 DataMatrix (ECC 200) internacionalmente
aceptado, es adoptado y el mismo debe ser impreso sobre empaquetados
secundarios, propone el uso de un código Identificador Unico de Medicamentos
(IUM, según sus siglas en portugués), "constituido por un número individual, no
repetitivo, de 13 dígitos que debe colocarse en el envase codificado por
Datamatrix y también expresado en caracteres numéricos legibles. El
Identificador Unico de Medicamentos será generado y gerenciado por ANVISA.
El código de barras deberá incluir la siguiente información sobre el producto:
GTIN, número de lote, fecha de vencimiento, y número de serie, se describe
también el uso del código de barras GS1-128 con clave SSCC sobre la unidad
logística (caja) para asegurar la conexión con el contenido (empaquetados
secundarios). El sistema en vías de implementación en Brasil es comparable al
implementado en nuestro país

Conclusiones

La lucha contra los medicamentos falsificados es una estrategia de largo plazo,


respaldada por inversión y compromiso significativo de recursos cuyo objetivo
es: Minimizar el riesgo de que los medicamentos falsificados lleguen a los
pacientes. El seguimiento y rastreo de productos farmacéuticos es un elemento
clave en una solución efectiva al problema de medicamentos falsificados, una
acción Paneuropea sería necesaria para crear un sistema eficiente y viable.
La adopción y el uso común de tecnologías de rastreo y localización confiables
ayudaran a garantizar la integridad de la cadena de suministro de fármacos al
proporcionar el historial exacto de un fármaco, lo cual constituye un expediente
seguro que documenta que el fármaco fue fabricado y distribuido bajo
condiciones seguras (FDA 2004). Las tecnologías de autenticación para
fármacos han sido perfeccionadas lo suficiente como para poder servir ahora
como un componente crítico de cualquier estrategia para proteger a los
productos contra la falsificación. (FDA 2004).

339
La identificación del ciclo de vida de un medicamento, desde el punto de
fabricación hasta la cama del paciente, con todos los pasos y actores
involucrados definidos, aumenta la seguridad del proceso de administración del
medicamento, aumentando significativamente la seguridad del paciente y
reduciendo el riesgo de la cadena de distribución.

Preguntas Orientadoras

1. Defina Trazabilidad Logística y sus objetivos.


2. Describa las diferencias fundamentales entre Código de barras 2D y
RFID.
3. Describa de manera resumida el Sistema de Trazabilidad de nuestro
país.
4. Describa el Sistema de alerta temprana de la OMS y sus objetivos.

Test de Autoevaluación

1. La tecnología para serialización son


(a) Códigos de barras unidimensionales.
(b) Códigos de barras 2D
(c) Identificación por Radiofrecuencia (RFID)
(d) Ninguna de las anteriores es correcta
(e) Todas son correctas

2. La identificación numérica normatizada/estandarizada, propuesta por


FDA para los medicamentos bajo receta, propone
(a) El Código Nacional de la Droga.
(b) El código Nacional de la Droga + la fecha de vencimiento y el
N° de lote.

340
(c) El Código Nacional de la Droga + un número de serie
específico (numérico o alfanumérico) con no más de 20
caracteres.
(d) El Código Nacional de la Droga + un número de serie
específico (numérico o alfanumérico) con no más de 20
caracteres + la fecha de vencimiento y el N° de lote.

3. El Sistema Nacional de Control de Medicamentos de Brasil propone


(a) La Tecnología RFID
(b) La Tecnología RFID + Código de Barras 2D
(c) Código de Barras 2D
(d) Código de Barras 2D + código de barras GS1-128 con clave
SSCC.

Bibliografía

1. Organización Mundial de la Salud. (2008). Falsificación de Productos


Médicos., EB 114/14.
2. Organización Mundial de la Salud. (2009). Falsificación de Productos
Médicos, A62/13.
3. Organización Panamericana de la Salud. Combate a la Falsificación de
Medicamentos, Propuesta de programas nacionales de prevención de la
falsificación de medicamentos y plan de acción (Road Map).
4. Organización Panamericana de la Salud. (2005). IV Conferencia
Panamericana Sobre Armonización de la Reglamentación Farmacéutica.
5. Christian Hay. (2004). Códigos de Barras Farmacéuticos: La Necesidad
de Legislación. Reimpreso de la Farmacia Hospitalaria en Europa. N° 15. Pp.
37-37
6. Organización Mundial de La Salud. (2011). IMPACT International
Medical Products Anti-Counterfeiting Taskforce.

341
7. James Killick y David Strelsyk Herzog. (2007). Seguimiento y rastreo de
productos Farmacéuticos en la Unión Europea: Un Elemento Clave en la Lucha
Contra Medicinas Falsificadas. Pharmaceutical Law Insight.
8. Sociedad Farmacéutica Real de Gran Bretaña. MHRA.
(2008).Medicamentos falsificados.. Guía para Farmacéuticos.
9. Andre Grigjanis. (2007). Proveyendo Trazabilidad en la Cadena de
Distribución Farmacéutica.
10. Ministerio de Salud de la Nación. Resolución 4357/2011.
11. Administración Nacional de Medicamentos, Alimentos y Tecnología
Médica (ANMAT). Disposición 3683/2011.
12. Diario Oficial de la Unión Europea (UE). Directiva 2011/62/UE.
13. Federación Europea de Asociaciones e Industrias Farmacéuticas.
Posición oficial. Identificación y codificación de productos farmacéuticos en
Europa.
14. Consejo General de Colegios Médicos de España. (2011). Boletín
Europa al Día, N° 376.
15. Food and Drug Administration (FDA). (2004). Combating Counterfeit
Drugs.
16. Food and Drug Administration (FDA). (2010). Guidance: Standards for
Securing the Drug Supply Chain-Standardized Numerical Identification for
Prescription Drug Packages.
17. Presidencia de La Nación Argentina. (2012). Guía Técnica Estándar de
Codificación y Trazabilidad de Medicamentos.
18. República Federativa de Brasil. (2009). Ley N° 11903 Sistema Nacional
de Control de Medicamentos.
19. Stephen Barlas. (2011). Track- and -Trace Verification. P and T.36 (4).
20. Guerra, J,M. (Abril 2011). Entrevista a Mario Abitbol, Líder de
Desarrollo de Salud de GS1 Argentina. Publicación Electrónica- Management
En Salud.

342
Notas
I
Por ejemplo, cualquier declaración equívoca con respecto al nombre, composición,
concentración, u otros elementos.
II
Por ejemplo, cualquier declaración equívoca con respecto al fabricante, país de manufactura,
país de origen, titular de la autorización de comercialización.
III
Se refiere a ingredientes o cualquier otro componente de productos médicos.
IV
GMP = Good Manufacturing Practices
V
US FDA = United States Food and Drug Administration

343
ANEXO I
Respuestas a los Test de Autoevaluación

Capítulo 1. Introducción al Control de Calidad de Medicamentos

1. (b)
2. (b)
3. (d)
4. (b)

Capítulo 2. El Método Analítico en el Control de Calidad

1. (c)
2. (d)
3. (a)
4. (b)
5. (c)
6. (c)

Capítulo 3. Cromatografía en Capa Fina (TLC):

1. (c)
2. (d)
3. (c)
4. (c) y (d)

Capítulo 4. Cromatografía Líquida de Alta Resolución (HPLC)

1. (a)
2. (c)
3. (b)
4. (c)
5. (a)
6. (c)

344
7. (c)
8. (a)
9. (b)

Capítulo 5. Electroforesis Capilar


1. (c)
2. (c)
3. (b) y (c)
4. (c)

Capítulo 6. Métodos espectroscópicos aplicados al Análisis


Farmacéutico
1. (b)
2. (d)
3. (c)
4. (a)
5. (c)

Capítulo 7. Métodos de Análisis Térmicos

1. (c)
2. (c)
3. (d)
4. (c)
5. (d)

Capítulo 8. Determinación de Agua


1. (b) y (c)

2. (a) y (c)

3. (b) y (c)
4. (c)

345
Capítulo 9. Análisis Funcional

1. F
2. V
3. F
4. V
5. F
6. F
7. V

Capítulo 10. La Prueba de Disolución

1. (d)
2. (b)
3. (b)
4. (c)
5. (c)

Capítulo 11. Uniformidad de Unidades de Dosificación


1. (b)
2. (c)
3. (a)
4. (b)
5. (b)
6. (a) y (c)
7. (a)
8. (b)
9. (a)
10. (c)

Capítulo 12. Estabilidad de Drogas y Medicamentos

1. (b)

346
2. (b)
3. (a)
4. (a)
5. (b)

Capítulo 13. Ensayos Biológicos


1. (d)
2. (c)
3. (d)
4. (c)
5. (c)

Capítulo 14. Trazabilidad de Medicamentos

1. (e)
2. (c)
3. (d)

347
LOS AUTORES

María Guillermina Volonté


Farmacéutica y Doctora en Ciencias Farmacéuticas (Facultad de Ciencias
Exactas – Universidad Nacional de La Plata). Se especializó en el Área de
Garantía de Calidad de Medicamentos y Biofarmacia. Profesora Titular con
Dedicación Exclusiva en la asignatura Control de Calidad de Medicamentos de
la Carrera de Farmacia y en la Maestría en Plantas Medicinales (Facultad de
Ciencias Exactas – UNLP). Profesora en la Carrera de Especialización en
Farmacia Clínica y Atención Farmacéutica (Facultad de Química, Bioquímica y
Farmacia – Universidad Nacional de San Luis). Profesora invitada en la
Universidad Nacional del Sur y en la Universidad Andina Simón Bolívar de
Sucre. Integrante de la Comisión Permanente de la Farmacopea Argentina.
Académica Titular de la Academia Nacional de Farmacia y Bioquímica.
Coordinadora de la Carrera de Farmacia (Facultad de Ciencias Exactas –
UNLP). Autora y coautora de publicaciones en revistas indexadas y de
comunicaciones científicas en Congresos de su especialidad. Ha dictado
numerosos cursos de posgrado y conferencias en temáticas relacionadas con
el área de su labor docente y de investigación. Directora y codirectora de
proyectos de investigación y de extensión en el área de su especialidad en la
Facultad de Ciencias Exactas (UNLP). Jurado en Concursos de Profesores y
de Tesis de Doctorado en distintas Universidades de Argentina y del exterior.
Reviewer de Revistas Científicas nacionales y extranjeras. E-mail:
kv@biol.unlp.edu.ar
HU U

Pablo Quiroga
Farmacéutico y Licenciado en Ciencias Farmacéuticas (Facultad de Ciencias
Exactas – Universidad Nacional de La Plata). Experto Universitario en
Toxicología y Master Universitario en Toxicología (Rectorado Universidad de
Sevilla - España). Profesor Adjunto en las asignaturas Control de Calidad de
Medicamentos y Toxicología Farmacéutica de la Carrera de Farmacia (Facultad
de Ciencias Exactas – UNLP). Miembro de la Subcomisión de Controles
Toxicológicos de la Farmacopea Argentina. Coautor de publicaciones en
revistas indexadas y de comunicaciones científicas en Congresos de su
especialidad. Jefe del Departamento de Investigaciones Farmacológicas de
Laboratorios Bagó S.A. Reviewer de Revistas Científicas. E-mail:
quirogapablo@yahoo.com.ar
HU U

Potrebbero piacerti anche