|
Por Roberto Pellerey
Número 38
In
the fifties and sixties the development of the Mathematical theory
of information gives an initial boost to the creation of a general
theory of communication. This theory is set up by linguistics
by using the technical patterns of the telecommunications engineering,
but then it distances itself from linguistics in order to become
- under the impulse of Jakobson – a theory of the forms
of communication. In the sixties this new theory is called semiotics
and it’s going to become a general discipline of the communicative
organisation of culture and human knowledge, because one of its
characteristic features is the analysis of the rules and the structures
of the literary and poetic texts by using principles as the feedback,
the expectations based on the narrative development, the quantitative
and probabilistic foresight based upon information and the rhythmical
structure of the poetic texts. In his Opera Aperta (1962)
Eco uses this theory in order to found an aesthetic theory based
on the qualitative and quantitative analysis of information in
every kind of aesthetic texts (from music to painting).
In addition, this new theory provides a basis also for the Russian
semiotics (as Lotman) which develop a theory of the poetic text
and an analysis (based on the theory of information) of the culture
as a system of transmission of knowledge of the human organism
which produces communicative signs.
Finally, in the seventies and eighties also the projects of artificial
intelligence and automatic translation are based on criteria both
of linguistics and of the theory of information, in order to create
automatic systems of production and interpretation of texts.
Palabras
Clave: informática, inteligencia artificial, sistema
expertos, Jakonson, Eco, Wiener, cibernética, Shannon, código,
canal, teoría de la información, Lotman, probabilidad,
entropía, estructuralismo, ritmo, lenguaje, mensaje, poética,
texto, estética, Tartú, traducción automática,
calculadora electrónica, cultura, ALPAC, matemática,
semiótica, lingüística.
En
la segunda mitad de siglo XX, la semiótica, la lingüística
y la teoría matemática de la información han
mantenido siempre relaciones profundas. Se han desarrollado a la
vez y se han ido reforzando recíprocamente, gracias a un
continuo intercambio de referencias y de principios teóricos
operativos. Desde sus comienzos, el ejemplo de cuanto ocurría
en el campo de los estudios matemáticos de la información
ha ido influenciando determinadas elecciones y orientaciones en
aquellas disciplinas dedicadas a la comunicación, respecto
a las que la semiótica se ha planteado como una síntesis
general. Es fácil darse cuenta de ello observando la trama
histórica y teórica que se ha ido constituyendo desde
1948, momento en el cual se originan estas disciplinas gracias a
la publicación de Cybernetics, or Control and Communication
in the Animal and the Machine, de Norbert Wiener.
La influencia de la Cibernética, término inventado
y utilizado por primera vez por Wiener en dicha obra, sólo
emerge completamente en los años sesenta, gracias a la referencia
que a la misma que realizan Jakobson en la lingüística
y Eco en la semiótica. Sin embargo, aún es más
relevante a lo largo de los años cincuenta otra obra que
nace en el mismo ámbito, es decir, en las investigaciones
americanas sobre los sistemas operativos automáticos. Se
trata de The Mathematical Theory of Communication, de C.E.Shannon
y W.Weaver, editado en 1949. En dicha obra, se formula por primera
vez el modelo general de la comunicación, basado en el principio
de que la comunicación es un proceso de transmisión
de informaciones (datos) desde una fuente a un receptor, por medio
de un aparato técnico que organiza el envío de la
señal a lo largo de un canal de transmisión, en función
de las modalidades específicas y los materiales del canal
utilizado. Shannon era un matemático que trabajaba para la
compañía telefónica Bell y su objetivo era
formalizar el modelo de la estructura técnica de la comunicación
para mejorar las condiciones de su uso. Ayudado por Weaver, Shannon
elabora en ese libro el modelo de la comunicación, que prevé
una Fuente, una señal enviada a lo largo de un Canal, un
Destinatario que recibe la señal y un instrumento Codificador
y Decodificador que permita la interpretación de la señal.
En dicho ensayo, se identifican determinados factores que condicionan
la comunicación, como el rumor o molestia en el canal, y
la redundancia informativa, destinada a asegurar una mejor
transmisión. Ambas nociones son adoptadas por la lingüística
de los años sesenta y entran en los manuales de lingüística
general gracias al uso coherente que se hace de ellas en relación
a la teoría general sobre el lenguaje, como, por ejemplo,
André Martinet, en los Éléments de linguistique
générale de 1960, para describir la dinámica
operativa de la comunicación verbal. Sin embargo, el objetivo
de Shannon es definir científicamente una medida cuantitativa
de la información, aspecto que interesa concretamente a Roman
Jakobson, el lingüista que toma el trabajo de Shannon de procedencia
matemática y lo adopta como modelo general de las ciencias
lingüísticas y comunicativas.
Desde el centro de la revolución epistemológica en
las ciencias sociales, producida por el Estructuralismo de los años
setenta, Jakobson actúa como un elaborador cultural aglutinante,
que une e intercambia datos, teóricas, menciones, intuiciones
y objetivos entre la lingüística, la antropología,
las ciencias sociales, la psicología cognitiva, la filosofía
(recuperando por ejemplo a Peirce, desconocido en Europa hasta ese
momento), las disciplinas matemáticas y la ingeniería.
Su interés por Shannon se debe a la posibilidad de utilizar
su modelo y su teoría para crear una ciencia unificada de
la comunicación, que permita estudiar técnicamente
los procesos lingüísticos y el funcionamiento de los
textos literarios y, sobre todo, que haga posible valorar o prever
matemáticamente la cantidad de información, de novedad
o de expectativas previstas en un texto poético o literario.
Jakobson considera que si se utilizan críticamente determinados
principios de la teoría matemática de la información
será posible controlar al menos la cantidad de información
de un texto escrito, basándose en la valoración de
las nociones introducidas en un texto (respecto a su previsibilidad),
así como en la organización rítmica y melódica
del texto, sobre todo en el caso de los textos poéticos.
Sin embargo, Jakobson ofrece una nueva definición de la cantidad
“poética” de un texto al identificarla con el
juego rítmico y sonoro del material lingüístico
que compone dicho texto. Con ello amplía la noción
de fenómeno poético inherente al lenguaje, extendiéndola
de hecho a todos los textos lingüísticos; es decir,
a todos los textos compuestos por palabras del lenguaje verbal.
Dicha extensión podría desembocar en la posibilidad
de examinar cuantitativamente cada texto posible. El ejemplo modelo
del nuevo método que nos ofrece Jakobson en 1962 en su célebre
análisis de la poesía Les Chats di Baudelaire
(realizado junto con Claude Lévi-Strauss), incluye anotaciones
sobre los valores míticos y simbólicos (o intertextuales)
de la felinidad, ofreciendo así un modelo de colaboración
entre disciplinas que caracteriza al estructuralismo. Además,
en su artículo más célebre, “Closing
Statements: Linguistics and Poetics” del 1960, hay otro ejemplo
en el que el lingüista examina textos poéticos de orígenes
diferentes. Dicho artículo es particularmente relevante,
pues en él formula Jakobson el famoso modelo general de la
comunicación tomado de Shannon e Weaver. Se trata del modelo
de los seis elementos de la comunicación (Emisor, Mensaje,
Destinatario, Contacto o Canal, Código, Contexto), que transforma
el esquema de Shannon en una teoría general unificada de
las ciencias de la comunicación. A partir de este momento,
las ciencias contemporáneas de la comunicación quedarán
instituidas bajo el dominio de la lingüística y es posible
comenzar a organizar una disciplina general sobre el lenguaje, la
comunicación y las condiciones de la significación,
que en los años sesenta se conocerá como Semiótica.
En sus momentos constitutivos, la semiótica vuelve a remitirse
a las ciencias matemáticas de la información. El ensayo
de 1962, Obra abierta de Umberto Eco constituye uno de
los textos que otorgaron al enfoque de las nuevas disciplinas mayor
difusión y notoriedad pública, además de académica.
Dedicado al análisis de los textos estéticos y a la
formulación de una teoría estética a partir
de principios procedentes de la teoría crítica y lingüística
contemporánea, el libro utiliza ampliamente los criterios
de la teoría matemática de la información y
analiza su aplicación a los diferentes tipos de textos estéticos
(musicales, literarios, de las artes visuales) protagonistas de
la vanguardia artística contemporánea. En concreto,
Eco examina detalladamente sobre todo a Wiener, cuya teoría
cibernética le permite formular principios estéticos
generales.
En realidad, la obra de Wiener sobre la Cibernética ya era,
a su vez, el resultado de una amplia colaboración con expertos
en ciencias sociales. En el ámbito de las investigaciones
que Wiener realizó en el MIT para las industrias bélicas
y el gobierno de los Estados Unidos en los años cuarenta
(durante y al final de la segunda Guerra Mundial), se había
revelado la necesidad de describir con precisión la dinámica
de la comunicación, con el fin de proyectar máquinas
automáticas capaces de realizar velozmente cálculos
sin intervención humana, capaces de almacenar datos y elaborarlos
rápidamente para poder aplicarlos de manera inmediata a procesos
que aún se encontraban en curso. De este modo, por ejemplo,
proyectando previsiones de rutas de vuelo para aviones militares
y sus respectivas variaciones bajo el fuego de la artillería
antiaérea enemiga, se formula la noción de feedback,
entendida como la corrección de un itinerario en función
de la diferencia entre la trayectoria prevista y la real, indicada
por un señal de respuesta que llega desde lo “real”
(y que indica, por ejemplo, la presencia de aparatos o disparos
enemigos bajo la forma de una señal de radar). Sin embargo,
para controlar el feedback es necesario elaborar la noción
de mensaje, transmitido por vía eléctrica
o mecánica, que se define como “una secuencia discreta
o continua de eventos mesurables distribuidos en el tiempo”,
es decir, una serie temporal que permita prever cómo y dónde
irá un mensaje a partir del conocimiento de de su comportamiento
precedente. Se trata, pues, de crear una teoría matemática
de la previsión del comportamiento de los hechos físicos
para usos mecánicos.
En este ámbito se formula la teoría de la comunicación,
entendida como transmisión física del mensaje, a lo
largo de un canal sometido a diferentes condiciones como las molestias
(rumor) y el cálculo estadístico de la cantidad de
mensajes que siguen recorridos diferenciados. En dicho proyecto,
Wiener elabora también la noción de “cantidad
de información”, que Shannon estaba estudiando por
separado para la compañía telefónica Bell.
Para ello se constituyó un grupo de expertos de diferentes
sectores, que se reunieron en 1946 en un congreso en Nueva York,
tras una primera reunión en Princenton en 1944, partiendo
del presupuesto de que para poder examinar la información
y la comunicación también tiene que haber sociólogos
y antropólogos, pues la información y la comunicación
son mecanismos de organización que implican, más que
individuos, comunidades. En este estudio participaron Gregory Bateson
y Margaret Mead.
El congreso reconoce la importancia de algunas nociones básicas
de la incipiente Cibernética y colabora en la organización
de un sistema de nociones que Wiener utiliza sucesivamente para
proyectar aparatos automáticos. Al mismo tiempo, Bateson
y Margaret Mead instan a Wiener a dedicarse a una ciencia general
centrada principalmente en el estudio de la comunicación.
Se trataría de una disciplina única, que sintetice
los diversos enfoques de los distintos saberes especializados en
relación con dicho tema. Wiener la denomina inmediatamente
Cibernética y organiza exactamente el sistema de nociones
que Eco discute y utiliza de modo crítico en Obra abierta,
transformando la Cibernética de Wiener en una teoría
de la comunicación aplicable al análisis de los sistemas
comunicativos contemporáneos, sobre todo los estéticos,
redefinidos por primera vez como sistemas de comunicación
(de ahí el gran éxito del libro de Eco). En Obra
abierta, Eco retoma la teoría de la información
y la noción de “cantidad de información”
transmitida por un mensaje, así como la valoración
de su carácter previsible. Es decir, la relación existente
entre la transmisión de información y la dispersión
de información (“entropía”) de los mensajes
o en los textos efectivos.
Eco observa que a Wiener le interesa definir los mensajes como sistemas
organizados, regidos por leyes de probabilidades convenidas. Es
decir, como textos sobre los que se puede predecir la información
que contienen, con las alteraciones sufridas por el rumor de molestia
y por el desorden entrópico, que disminuyen la capacidad
de comunicación. Sin embargo, Eco observa que en los textos
estéticos se da una ley diversa, que no toma simplemente
en consideración la cantidad de información, sino
más bien la cantidad de significación transmitida.
Un texto estético es un texto cuyo grado de información
no viene dado por la presencia de significados habituales y previstos,
sino “a través de la utilización de las estructuras
convenciones de un lenguaje, que se oponga a las leyes de probabilidad
que lo regulan desde su interior”(Eco, 1962:111). Así
pues, no es el orden sino el desorden lo que constituye información
(estética); es decir, el orden no habitual y previsible,
la novedad frente a lo esperado. Por tanto, el factor estético
relevante, que constituye el interés y el propio placer estético,
consiste en la ruptura de la organización y “es desorden
respecto a la organización precedente, pero es orden respecto
a los parámetros asumidos en el interior del nuevo discurso
(Eco 1962:117).
El arte contemporáneo propone continuamente órdenes
y usos improbables, y por tanto innovadores, respecto al orden precedente.
Construye en cada obra un nuevo sistema lingüístico,
mientras que el arte clásico construía “cadencias
originales en el interior de un sistema lingüístico
cuyas reglas básicas respetaba substancialmente” (ibidem).
Si el arte contemporáneo es, pues, “una organización
original del desorden”, se puede examinar con los criterios
de la teoría cuantitativa de la información, en busca
de los criterios y de la cantidad de innovación que presenta.
De ese modo, la teoría de la información constituye
la base del análisis científico del texto estético,
sumándose al uso que Jakobson hace de ella en el análisis
del texto poético, en un proyecto común de valoración
crítica y científica de los textos y de los mensajes
estéticos, poéticos y literarios. De este proyecto
arranca la teoría semiótica de los años sesenta,
que se une a la crítica literaria originada a partir del
estructuralismo e intenta imprimirle una dirección técnica.
La escuela de Tartu, que se formó en Rusia en los años
sesenta, entorno a la figura de Iuri Lotman, parte de estas premisas.
Filólogo e historiador de la literatura, Lotman publica en
1970 su Estructura del texto poético, que une los
principios derivados del Formalismo ruso con los principios lingüísticos
del Círculo de Praga y los modelos derivados de la teoría
matemática de la información. En el análisis
crítico del texto que lleva a cabo en la Estructura del
texto poético, Lotman organiza un sistema unificado
de principios de dichas escuelas, pero sobre todo adopta un principio
de cálculo de previsión cuantitativa de la información
en la estructura y organización de los textos poéticos,
a partir del ejemplo de Jakobson. Por lo que se refiere a los ritmos
poéticos y a los hechos narrativos, se considera que el conflicto
entre espera, previsión y sorpresa textual constituye la
dinámica central del texto literario y se convierte en el
principio general de organización del método crítico
estructural. El análisis crítico examina la dinámica
de funcionamiento de cada texto, en el juego regulado del conflicto
entre la espera y la sorpresa informativa. La tradición Formalista
se adapta así a la teoría matemática de la
información, que ofrece algunos criterios esenciales para
el análisis de los textos.
De hecho, Lotman utiliza de manera ejemplar los métodos y
los resultados de la escuela semiótica soviética,
que ya había realizado una primera unión de estos
principios en los años cincuenta antes de agregarse entorno
a su figura y a sus investigaciones realizadas en la Universidad
de Tartu. A partir de 1964, Lotman reúne en Tartu, en encuentros
estivales regulares, a los lingüistas, los matemáticos
y los estudiosos de literatura que ya habían participado
en Moscú y en Leningrado investigaciones comunes desde 1950,
cruzando la lingüística y la cibernética. La
formación de los investigadores de Leningrado es literaria
y se remonta a la tradición formalista, mientras que los
investigadores de Moscú ya han ido confrontando su formación
lingüística y matemática en conferencias y congresos,
como el que tuvo lugar en 1958 sobre traducción automática,
donde Ivanov intervino “sobre conceptos de lengua como sistema
sígnico, de comunicación, de mensaje, de código”
(Marzaduri 1979:349) y sobre la estructura del texto poético,
y el simposio de 1962 sobre el “Estudio estructural de los
sistemas de signos”, considerado actualmente como el acto
fundador de la semiótica rusa.
La integración entre las diferentes tradiciones, formalista,
lingüista y matemático-cibernética, conduce a
formular la hipótesis de que la cultura es una estructura
organizativa de la sociedad humana, destinada a constituir sistemas
para la conservación y la transmisión de los conocimientos
entre las diferentes generaciones. La teoría de la información
ofrece modelos matemáticos para describir la transmisión
de conocimientos, su organización en forma de sistemas de
saberes y la cantidad de innovaciones, esperada o imprevista, que
se produce en la creación de nuevos textos. La cultura aparece
descrita como el conjunto de toda la información no hereditaria
de una colectividad, así como de los medios necesarios para
su organización y su conservación, y comprende los
conocimientos, los textos que los custodian y los diferentes sistemas
artísticos o expresivos que la integran, pero también
las costumbres de la vida cotidiana, las formas de espectáculo,
las representaciones rituales políticas o mundanas. La cultura
constituye, pues, un mecanismo para transmitir informaciones en
el tiempo, para generar nuevos textos y crear nueva información,
así como para producir acciones y comportamientos reales.
La noción de sistema, procedente de la lingüística,
permite convertir la cultura en un objeto de carácter matemático,
con el objetivo de examinar las recíprocas relaciones de
sus componentes y las consecuencias de sus variaciones. La semiótica
de modelo cibernético que se ha constituido de ese modo,
está pensada para ser una ciencia capaz de explicar todos
los hechos de la cultura humana, anticipando la formación
de una Semiótica, entendida como disciplina general, que
se producirá en Europa poco después. En los años
cincuenta, la escuela semiótica soviética había
empezado examinando al hombre, entendido como un dispositivo que
realiza operaciones con los signos. Es decir, los sistemas sígnicos
y comunicativos del hombre en la sociedad humana y de las máquinas,
interpretados como dos tipos diferentes de organismos (naturales
y artificiales), productores de signos comunicativos, se examinan
a partir de principios comunes. Del mismo modo, la sintaxis del
lenguaje verbal se estudia a partir de sus posibles relaciones con
la sintaxis lógica de la mente humana, con el fin de utilizarla
en la organización de la sintaxis lógica de los lenguajes
de programación de los calculadores electrónicos.
En los años sesenta se examinan los diferentes sistemas de
la cultura, a partir de sus propias particularidades y de las relaciones
que mantienen entre sí, sobre todo el funcionamiento del
texto artístico, lingüístico y literario.
En los años setenta, Lotman impulsa esta escuela en la dirección
de una “semiótica de la cultura”, cuyos principios
identificados previamente se puedan aplicar al conjunto de las culturas
humanas. Cada sistema artístico, científico o cultural
se interpreta como una parte integrada en códigos organizativos
de un sistema general de la cultura, entendida como el archivo de
saberes que se van transformando y que resultan funcionales a las
nuevas condiciones históricas y sociales en los diferentes
momentos de transmisión entre las diferentes generaciones.
Asimismo, se examina el proceso que siguen los textos y las informaciones
al pasar de una cultura a otra, valorando su transformación
y su potencialidad de incidencia y de transformación en la
cultura receptora.
En la semiótica soviética aparece también otro
tema que une la lingüística y la teoría de la
información: la proyectación de sistemas para la traducción
automática. Dichos estudios se inician conjuntamente en Moscú
y en Inglaterra, tras la presentación en Nueva York en 1954
del primer ejemplo de traducción automática efectuada
por una calculadora electrónica, con un programa realizado
en el MIT. Inspirándose en el proyecto americano, el grupo
inglés del CLRU (Cambridge Language Research Unit) de la
Universidad de Georgetown y dos secciones diferentes de la Academia
de Moscú se dedican a la traducción automática.
Ambos grupos reúnen matemáticos, ingenieros, lingüistas
y estudiosos de la comunicación. En Inglaterra colaboran
lingüistas como Hallyday y Firth y en Moscú los lingüistas
Igor Mel’cuk y I.I.Revzin, que pertenecen a la escuela de
Tartu. El objetivo común es la relación de programas
para ordenador capaces de traducir automáticamente textos
completos de una lengua a otra, sin intervención humana.
En ambos casos, la traducción automática constituye
el objetivo primordial y más relevante de todo un vasto programa
de elaboración de sistemas para elaboradores electrónicos,
que les permitan desarrollar actividades y funciones humanas con
el objetivo de reducir o de eliminar el trabajo humano, sustituido
por programas automáticos desarrollados por los ordenadores.
Se trata, por tanto, de un vasto campo de proyectos que toma el
nombre de Inteligencia Artificial, pero en la I.A. los proyectos
para la traducción y la traducción automáticas
seguirán siendo siempre el ejemplo y el modelo tanto de los
objetivos y de las ambiciones científicas como de las dificultades
y de las desilusiones que se irán produciendo.
La investigación de sistemas para la traducción procede
de modo paralelo en Estados Unidos, en Inglaterra y en la Unión
Soviética, con fases de colaboración y otras de rivalidad
científica. Para obtener un programa de traducción
es necesario poseer una buena teoría general de la traducción
y ésta última requiere un buen modelo de funcionamiento
del lenguaje.
Cruzando las teorías lingüísticas y las nuevas
investigaciones, todos aquellos que trabajan en este proyecto examinan
la organización del léxico en las lenguas, la organización
del significado o de los contenidos del lenguaje en la mente humana,
el funcionamiento y la lógica de la sintaxis y la organización
de los universos semánticos en la mente. Por ello se remiten
a las ciencias cognitivas y a la lingüística, determinando
consecuencias teóricas que la semiótica utiliza como
modelos de representación de los universos semánticos.
Por ejemplo, a partir de las investigaciones de Qullian en Inteligencia
Artificial, Eco elabora el “Modelo Q” de la representación
del universo semántico humano adoptado en el Tratado
de semiótica general de 1975 y transformado sucesivamente
en la noción de Enciclopedia adoptada definitivamente en
Lector in fabula (1979) y en Semiótica y filosofía
del lenguaje (1984).
La historia de las investigaciones sobre la traducción automática
pone de manifiesto algunas intersecciones, frecuentes y repetidas,
entre la lingüística y la teoría de la comunicación.
Entre 1954 y 1966 se proyectan los sistemas de “primera generación”,
que prevén la substitución palabra a palabra entre
términos de la lengua de origen y términos de la lengua
de destino. También hay un repertorio de instrucciones que
permite reconocer las variaciones morfológicas de cada palabra.
Sin embargo, estos proyectos no funcionan porque ignoran la función
del contexto en la interpretación de los términos,
pero su fracaso lleva a la lingüística anglosajona a
intensificar sus estudios sobre la importancia del contexto en la
interpretación lingüística, haciendo emerger
una concepción pragmática del significado en la reciente
semiótica interpretativa, que se remite ampliamente a dicha
concepción pragmática (Eco 1990). En estos proyectos
también se descuida la posición de la palabra en la
frase, pues las reglas de sintaxis y de construcción de la
frase se consideran universales. Asimismo, se descuida la importancia
de los conocimientos de sentido común para interpretar frases
y términos concretos, es decir, de las nociones pragmáticas
y culturales comunes de fondo difusas, que sin embargo se convierten
en algo esencial en la lingüística pragmática
posterior, justamente porque los fracasos de los proyectos ponen
se relieve su importancia. En 1966 se publica el informe Languages
and Machines dell’ALPAC (Automatic Language Processing
Advisory Committee), una comision especializada del MIT que considera
la traducción automática un método lento, inútil,
costoso y cuyos resultados son peores que los del trabajo humano,
por lo que el proyecto constituye un fracaso.
Hasta 1976 no se emprenden nuevas investigaciones. Los proyectos
de “segunda generación” se sitúan entre
1976 y 1990 y se proponen evitar los errores precedentes identificando
una “interlengua” de referencia. Una representación
del significado dado en las frases que subyaga a la representación
semántica pura, lógico-semántica, que prescinda
del modo en el que las reglas concretas expresan los valores semánticos
y las relaciones lógico-semánticas entre los términos.
Se trata, por tanto, de una estructura profunda que comprende un
repertorio semántico universal (un repertorio de unidades
semánticas humanas) y un conjunto de reglas para representar
relaciones entre dichas unidades en forma de sintaxis lógica,
depurada de la especificidad e idiosincrasia de las relaciones entre
las diferentes lenguas y dotada, además, de reglas e instrucciones
para su transformación en frases, a partir de las normas
sintácticas y gramaticales de cada lengua específica.
En este tipo de proyectos, la traducción prevé un
doble movimiento: de una lengua específica a la Interlengua
lógico-semántica universal abstracta y, sucesivamente,
una transformación de la Interlengua a la lengua especifica
de destino. El paso a través de la reestructuración
lógica universal de la interlengua asegura la traducibilidad
en función de las normas de la lengua de destino, tras haber
comprendido exactamente el significado de las frases en la lengua
de origen, que ha sido descodificada abstrayendo su especificidad
idiosincrásica. Este tipo de proyectos fracasa también
al enfrentarse con la diversidad de los universos semánticos
de las lenguas, irreducibles a reglas rígidamente codificadas
de transformaciones paralelas. Sin embargo, el éxito de los
mismos radica en la confutación definitiva, probada de modo
empírico, de las reglas de equiparación lógica
y semántica de las teorías basadas en el universalismo
lógico-semántico de una única estructura profunda
humana como, por ejemplo, la teoría de Chomsky.
Por muy amplios que sean los repertorios de contextos previsibles
para desambiguar de modo situacional los términos y las frases,
la variable del sentido común cultural de fondo y de la situación
específica de uso hacen que sea imposible prever el significado
exacto que cada término podrá adquirir en cada uso
específico, en situaciones y contextos específicos.
La afirmación semiótica y lingüística
del modelo pragmático de la comunicación deriva precisamente
de los fracasos de estos nuevos proyectos, que implican un progresivo
fracaso de todo el campo de la Inteligencia Artificial. Dicha afirmación
prevé al menos la variabilidad de la interpretación
lingüística en función de determinados factores
contextuales, de la situación, del co-texto lingüístico
y de los hábitos sociales en relación al uso de los
textos y del lenguaje.
A partir de 1990 se han ido proponiendo ulteriores métodos,
que tienen en cuenta los problemas mencionados y no toman en consideración
los programas universales de traducción válidos para
cualquier tipo de texto posible de una determinada lengua, sino
una serie de instrucciones limitadas para poder traducir determinados
tipos específicos de textos delimitados por sectores, a partir
de una muestra léxica y textual de uso específico
real. Por ejemplo, los textos que ya circulan por las redes electrónicas,
como los boletines metereológicos, los boletines sobre avalanchas
de nieve (en Suiza), las informaciones militares o las sintomatologías
médicas. Se trata de sistemas expertos delimitados y especializados,
que la semiótica define como ámbitos Diccionariales,
contrapuestos a las ambiciones Enciclopédicas de los primeros
proyectos.
Algo parecido ocurre en el ámbito de la Inteligencia Artificial,
donde los proyectos pasan progresivamente de la ambición
de sustituir las actividades del hombre reproduciendo los procesos
de razonamiento humano al objetivo más restringido de simular
los resultados de algunas limitadas operaciones humanas, abandonando
el proyecto de sustituir las actividades y las capacidades humanas.
En este caso, los sistemas operativos se revelan eficaces si restringen
sus ámbitos de intervención a sectores limitados y
más fáciles de describir.
De cualquier modo, la relación entre la teoría lingüístico
semiótica y las disciplinas matemáticas de la información
se revela como algo continuo y proficuo, incluso en cuanto indicador
de los proyectos irrealizables. Pero el juego entre intentos y observaciones
de sus éxitos y sus fracasos es continuo y constante, hasta
el punto de determinar giros y perspectivas teóricas en ambos
campos, a partir de las indicaciones y de las constataciones sobre
todo aquello que se realiza y que se verifica en el otro sector
científico. Este proceso define la colaboración científica
a lo largo de todo el siglo XX, característica de disciplinas
como la lingüística, la semiótica, la matemática
y la informática, cuyos únicos precedentes son las
reflexiones de filósofos como Leibniz, Newton y Descartes
en el siglo XVII y Boole y Peirce en el XIX.
Notas:
*
Traducción original del italiano. Traducción de Charo
Lacalle.
Referencias:
ARCHAIMBALULT,
S.LÉON, J. 1997: “La langue intermédiaire dans
la traduction automatique en URSS (1954-1960)”, Histoire
Épistemologie Langage, 19/II, pp.105-132.
ECO, U. 1962: Opera aperta, Milano, Bompiani
-------- 1990: I limiti dell’interpretazione, Milano,
Bompiani.
ECO, U.-FACCANI, R. (comps.) 1969: Semiotica della letteratura
in URSS, Milano, Bompiani.
FREIGANG, K. H. 1998: “Machine-aided translation”, in
M.Baker, K.Malmkjaer (a cura di), Routledge Encyclopaedia of
Translation Studies, London-New York, Routledge, pp.134-136.
JAKOBSON, R. 1960: “Closing Statements: Linguistics and Poetics”,
in Th.A.Sebeok (ed.), Style in Language, London-New York,
1960, pp.350-377.
JAKOBSON, T.-LÉVI-STRAUSS, CL. 1962: “Les chats”,
L’Homme, II, n.1 (Janvier), pp.5-21.
LÉON, J. 2000: “Traduction automatique et formalisation
du langage. Les tentatives du Cambridge Language Research Unit
(1955-1960)”, in P.Desmet, L.Jooken, P.Schmitter, P.Swiggers
(a cura di), The history of linguistic and Grammatical Praxis.
Proceedings of the XIth International Colloquium of the Studienkreis
“Geschichte der Sprachwissenschaft” (Leuven, 2nd-4th
July, 1998), Leuven-Paris-Sterling (Virginia), Peeters, pp.369-394.
LOTMAN, J. 1970: Struktura chudozestvennogo Teksta, Mosca,
Iskusstvo. Ed. it. La struttura del testo poetico, Milano, Mursia,
1972.
MARTINET, A. 1960: Éléments de linguistique générale,
Paris, Colin.
MARZADURI, M. 1979: “La semiotica dei sistemi modellizzanti
in URSS”, in: La semiotica nei paesi slavi. Programmi,
problemi, analisi, a cura di Carlo Prevignano, Milano, Feltrinelli,
1979, pp.343-381
MEL´CUK, I. 1974: Opyt teorii lingvisticeskich modelej
“smysl<>tekst”, Moskva. Ed. it. parziale:
“Un modello della lingua naturale come trasformatore «senso?testo»”,
in: C.Prevignano (a cura di), La semiotica nei paesi slavi,
Milano, Feltrinelli, 1979, pp.332-336.
RICH, E. 1983: Artificial Intellligence, McGraw-Hill, New
York. Ed. it.: Intelligenza artificiale, Milano, McGraw-Hill
Italia Libri, 1986.
SALVESTRONI, S. 1980: “Il pensiero di Lotman e la semiotica
sovietica negli anni Settanta”, in: J.M.Lotman, Testo
e contesto, Roma-Bari, Laterza, pp.VII-XLIV.
SANNON, C. E.-WEAVER, W. 1949: The Mathematical Theory of Communication,
Urbana, University of Illinois Press.
SOMERS, H. L. 1998a: “Machine translation, applications”,
in M.Baker, K.Malmkjaer (a cura di), Routledge Encyclopaedia
of Translation Studies, London-New York, Routledge, pp.136-139.
1998b: “Machine translation: History”, in M.Baker, K.Malmkjaer
(a cura di), Routledge Encyclopaedia of Translation Studies,
London-New York, Routledge, pp.140-143.
1998c: “Machine translation, methodology”, in M.Baker,
K.Malmkjaer (a cura di), Routledge Encyclopaedia of Translation
Studies, London-New York, Routledge, pp.143-149.
TORASSO, P. 1986: Elaborazione dell’informazione non numerica,
Torino, CLUT.WIEN
ER, N. 1948: Cybernetics, or Control and Communication in the
Animal and the Machine, Cambridge, MIT Press (2° 1965).
Dr.
Roberto Pellerey
Investigador de Filosofia del Linguaggio en la Università
di Genova (Facoltà di Scienze della Formazione), donde
enseña “Semiotica” y “Lingua Italiana”,
Italia.. |