Asociación de Técnicos de Informática.Grupos de TrabajoNoticias de ATIServicio ATInetPublicaciones de ATIFormación: Catálogo y NovedadesBolsa de Trabajo Ayuda

 
Grupo de Lengua e Informática

Transcripción de la
CONFERENCIA-MESA REDONDA: 
Internet y el español
Madrid - Martes, 6 de noviembre del 2001

Ponencia de José Antonio Millán

Presentación de José Antonio Millán (a cargo de Rafael Férnandez Calvo)

En primer lugar, bienvenidos a todos. En este caso me toca saludarles o saludaros en nombre de ATI, la Asociación de Técnicos de Informática, en concreto de su capítulo de Madrid, que a lo largo de todos estos últimos años viene realizando una serie de actividades que se celebran normalmente aquí en esta escuela y en la que vamos cubriendo diversas áreas técnicas, paratécnicas... No siempre nos fijamos en la tecnología pura y dura sino que también nos interesamos por otras cosas.

Me voy a presentar a mí mismo brevemente: Soy Rafael Fernández Calvo y soy el director de la revista Novática,que es la revista de la Asociación de Técnicos de Informática, y autor de ese pequeño opúsculo que tienen encima de sus mesas, del Glosario de Internet.

El tema... He dicho que hablábamos no solamente de temas técnicos sino de temas paratécnicos, pensamos, reflexionamos, unas veces con más profundidad y otras con menos y hoy ha tocado el tema de Internet y el español. Cogimos el título, precisamente, del libro de la persona que tengo aquí a mi derecha, José Antonio Millán, pionero de la edición digital en España, yo le llamaba «periodista electrónico» y me  dijo: No, edición digital, que es otra cosa bastante diferente. Yo lo conocí a través del CD-ROM del Diccionario de la Real Academia de la Lengua, no me acuerdo de qué edición... la anterior,  [Millán: la anterior, la vigésimo primera], la vigésimo primera edición. Yo lo conocí a través de alguien que me regaló esa obra y me gustó mucho y a partir de entonces lo voy siguiendo hasta que nos encontramos en alguna ocasión en temas relacionados con la lengua y las tecnologías y pues hemos conectado y hemos estado en contacto desde entonces. Cuando sacó este libro le propuse que hiciese el favor de darnos una conferencia sobre ese tema: Internet y el español. y él me sugirió que no solo interviniese él sino que estuviesen presentes otras personas que sobre todo desde el punto de vista de ATI se ocupan de estas cosas y que voy a presentaros de derecha a izquierda: Julián Marcelo, que es un profesional informático, que fue el primer director de la revista Novática y después director durante muchos años; ha escrito bastante sobre estos temas, es un hombre  muy combativo, ya lo verán. A mi izquierda tengo a Carmen Ugarte, que es la jefa o coordinadora del Grupo de Lengua e Informática de ATI, muy activa en listas por ahí como Spanglish, activa también en el foro interno electrónico de ATI.; escribe también bastante, le da a la pluma con cierta facilidad  [Carmen: al teclao, al teclao], al teclao... A continuación tenemos a  María Luisa Romana que es profesora del Departamento de Traducción e Interpretación de aquí de la casa, que ya ha intervenido anteriormente... Y a la izquierda otra persona, Jesús González de Barahona, que quien esté metido en los temas de software libre lo conocerá mucho porque es uno de los pioneros del software libre en España y él, aunque se enfade que se lo diga, pues yo diría que es uno de los gurús del software libre en España; en otros sitios tienen a Stallman, pues aquí tenemos a Jesús González de Barahona y otra gente.

Y estos son los que van  a intervenir en esta conferencia. 

¿Cómo nos vamos a organizar?

Va a intervenir primero José Antonio durante unos cuarenta minutos [Millán: o menos], o menos. Tiene libertad, el conferenciante se puede tomar esas libertades y a continuación intervendrán brevemente cada uno de los moderadores, pero simplemente para hacer unos apuntes porque no hay tiempo para más. Y lo que queremos es dejar también un poco de tiempo para que ustedes puedan hacer sus preguntas, en fin para hacer algún tipo de intervención. Voy a ser bastante estricto en la regulación de los tiempos en este sentido,  y me lo van a perdonar todos ustedes, porque si no, seguramente, no va a haber tiempo de intervenir todos.

Y una vez dicho esto, yo ya me he liado suficiente y José Antonio, que sabe mucho de estas cosas, y lo demuestra siempre que habla y siempre que escribe y lo ha demostrado recientemente en el Congreso Internacional de la Lengua Española que se se ha celebrado en Valladolid y en el que ha participado, pues es el que nos va a  dirigir la palabra.

Ponencia de José Antonio Millán

Muy buenas tardes... Gracias, Rafael. Es un placer para mí, múltiple, estar aquí. En primer lugar en una universidad pontificia, , donde nunca había estado, algo que me emociona [;-)]... La ATI es una asociación antigua con una presencia en Web, que si no recuerdo mal es de las primeras presencias corporativas; una entidad que tiene además capítulos, como la masonería [Rafael: exactamente], [murmullos], interesante y con gente que viene trabajando en este terreno en el cual yo me confieso directamente paratécnico; yo no soy en absoluto de la rama técnica sino de la paratécnica, que por suerte parece que es la que interesa hoy. Rafael Fernández Calvo ha hecho una labor muy meritoria, que como él no lo ha dicholo diré yo, en la recopilación de este glosario que es una de las muestras más interesantes de autorregulación lingüística de un colectivo, y de hecho y desde hace tiempo —es la cuarta edición— lleva haciendo una doctrina muypráctica y muy interesante sobre muchos temas. 

Con motivo de la correspondencia mantenida para preparar este acto, me enteré por una indiscreción de Carmen, que Rafael y yo vivimos durante unos años de nuestra infancia en el mismo pueblo y estamos desentrañando ahora algunos particulares. Aún no sé si él es el que me tiraba piedras a mí o yo le tiraba piedras a él, pero teníamos en esa época una relación muy clara. 

Lo que voy a hacer es hablaros de tres cosas: En primer lugar voy a aprovechar este contexto para compartir algunos recuerdos que tienen que vercon mis inicios en la informática, que si no comparto con gente como la de ATI no sé con quién voy a hacerlo, y tenía ya muchas ganas de contar; y luego me centraré en dos flancos de mi tema. 

Mi historia en estas cosas empieza a los veinte años, cuando ya había salido del colegio y realmente no me había dado tiempo a mucho más... Estaba ya en la universidad y me encontré con un compañero de clase y le pregunté: 

—¿Qué tal?, ¿qué haces? 

—Pues estudio informática. 

—¡Ah! ¡Qué interesante! ¿Y en eso qué hacéis? 

Y me estuvo contando... Y yo, por aquel entonces, estudiaba latín y me gustaba mucho la métrica latina, los hexámetros, que digamos que tienen profundos misterios rítimicos, literarios y demás... Y como era una estructura formal con una combinatoria y una variedad, pues se me ocurrió: 

—Oye, ¿por qué no hacemos algún trabajo que tenga que ver con la informáticay con el análisis de los hexámetros?

—¡Perfecto! 

Fuimos entonces a lo que era, creo yo —estamos hablando del año 72 o 73—, el Centro de Cálculo de la calle Vitruvio y allí empezamos a trabajar con una Univac, que yo no sé si en ese año sería, porque he estado haciendo un poco de arqueología, una 1110 [pronun.: mil ciento diez] o una 9030 [pronun.: noventa treinta], pero que era el típico armatoste grande con entrada por fichas perforadas de 80 perforaciones de ancho, donde cabía un hexámetro bien medidito, y bueno, ahí entré en ese mundo apasionante del ensamblador, de la programación, de la lengua... Desde entonces me ha fascinado, me ha interesado y he estado trabajando en esto. 
 

Una vez contado este recuerdo voy a comentaros los dos flancos sobre los que quería hablar: El primer flanco lo titularía: «La acción lingüística sobre el mundo digital»y el segundo sería: «La acción digital sobre el mundo lingüístico» . Es decir, los dos temas sobre los que quería hablar para a su vez recibir vuestras opiniones son: las transformaciones que tiene la lengua por el influjo de la tecnología digital y las transformacions que puede tener el mundo digital por la entrada de la lengua en él, que son dos aspectos opuestos, pero los dos muy interesantes, como he intentado de demostrar varias veces y con diferente éxito. 

Empezaré por el primero: entrada de  las tecnologías en nuestra lengua.. Es la parte de la cuestión más patente, más clara, que mueve más ríos de tinta, que ha movilizado más congresos, seminarios, diccionarios, etcétera y es ni más ni menos, que la irrupción de una cantidad muy grande de neologismos en el español y la reacción que ha tenido nuestra lengua frente a ellos. Estamos aquí frente a un tema en el que voy a empezar por descubrir mis cartas, decir lo que pienso en general para luego, acto seguido, ejemplificarlo. Mi punto de partida, si queréis, expuesto de una forma un poco bruta, un poco provocativa es que es un problema que no me preocupa. Creo que las lenguas se defienden muy bien, las lenguas son como seres vivos, si un organismo, una planta, se clava una espina o un animal le aparece un cuerpo extraño, o se muere el animal o expele el cuerpo o aprenden a convivir. Bueno, pues con las lenguas y con la terminología ocurre lo mismo. Cualquiera que se asome a la historia del español o de cualquier otra lengua verá centenares o miles de palabras que han entrado, han convivido, se han repelido, se han asimilado, se han medio asimilado... y demás. ¿Qué es lo que nos encontramos ahora? Pues noencontraremos nada en el campo de las nuevas tecnologías que no hayamos visto ya mucha veces salvo quizás una cuestión de presión, de tiempo y de intensidad. De hecho, os voy a adelantar algunos de los frentes de posibles problemas que yo resumiría en uno: la mutua inteligibilidad de todas la comunidad hispanohablante. Dicho de una forma más simple: desde mi punto de vista el máximo problema que nos podemos encontrar es la divergencia entre las tecnologías locales en el campo hispanohablante, que haya cosas, fenómenos, aparatos, dispositivos, partes... que se llamen de una forma en México, de otra forma en Argentina y de otra forma en España. Una segunda cuestión con una visión un poquito más amplia sería que haya cosas que se llamen de una manera muy distinta en castellano, en catalán, en francés, en gallego, en portugués, en italiano y en rumano, en las lenguas neolatinas, y ahí otro segundo problema que acto seguido me permitiré también tocar. 

Bien, ¿qué es lo ocurre ahora mismo con gran parte de esta terminología? Bueno, pues que tiene soluciones locales, soluciones que en México son de una forma, en Perú son de otra, en Argentina son de otra... Cualquier persona que haya trabajado un poco en el tema de la comunicación, más bien en el tipo de listas de distribución en colectivos técnicos, sabe que uno de los primeros esfuerzos que le cuesta a cualquier lista, ya tenga que ver con enfermedades bovinas o con lo que sea, que actúe en el ámbito hispanohablante es ponerse de acuerdo con la terminología. Si uno ve la historia de las listas de RedIris y pregunta a sus miembros que a veces llevan años lo primero que hacen es ponerse de acuerdo con los colegas del mundo hispanohablante: 

—¿A qué llamáis esto? 

—Pues lo llamamos así 

—¿Y esto otro? 

—Pues así... 

—¡Ojo! porque esto aquí no lo usamos porque es tabú. 

—¡Ah!, bueno, vale... 

Cuando ya se han puesto de acuerdo empiezan a hablar. Esto en el aspecto técnico tiene una importancia grande porque hay muchos materiales que traducir, que adaptar con adaptaciones a veces locales, a veces generales... Hay también un factor de riqueza y un factor de identidad propia en las versiones locales, pero a grades rasgos, desde un punto de vista general, podríamos pensar que es deseable que haya soluciones comunes al ámbito hispanohablante. ¿Se puede conseguir esto o no? Digamos que obviamente no, porque si el aluvión de términos nuevos, pues podría ser fácilmente —¿qué diría yo?— de varias decenas y a veces un centenar cada año, si son años moviditos, de cosas, pues al final es una masa, digamos excesiva, con la que ¿qué se podría hacer? Se podría hacer quizás una labor primero de detección de los neologismos, cosa que se hace ya de forma bastante automatizada, por procedimientos que van desde el llamdo «búho» , que tiene la Real Academia   y cosas que usan otras instituciones, que es sencillamente una especie de araña que va rastreando páginas web, periódicos y que detecta contra un corpus las palabras nuevas; bien esa es una forma rápida, muy objetiva de detectar términos nuevos. Supongamos que se detectan, que vemos irrumpir allí, por ejemplo, aunque sean ejemplos ya pasados, cookie, reset, el dominio, etcétera, etcétera, etcétera. ¿Qué es lo que se podría hacer acto seguido? Aquí cabrían dos soluciones, una sería la solución normativa dura, que sería que una institución con mando en el terreno lingüístico dijera: «Dígase a partir de hoy cuqui (escrito: ce, u, cu, u, i)», vale, bueno... La segunda parte sería que la comunidad lo aceptara, cosa que no siempre ocurre. La lengua, como sabéis, es de los pocos terrenos en que el mundo actual, como el de siempre, funciona por sufragio universal; es decir, ya puede quien sea decir que se diga de una forma o que se escriba de otra, que si los hablantes no la asumen como propia jamás la veremos. Como digo, una forma puede ser la normativa, emanada desde una institución a la que se reconociera una autoridad y otra podría ser el acuerdo y el consenso entre los usuarios, que hubiera alguna zona neutral que fuera recogiendo las posibilidades en cuanto surgiera algo... Caso de que en México dijeran «pues aquí suena bien» o «no, aquí decimos lo otro», por ejemplo, un caso típico, el PING, el famoso PING, bit, byte o lo que sea que se lanza en una red de comunicaciones: Puedes decir: «¿Ping? Vale, está el ping-pong, parece que suena bien». Puedes decir: «¿Se puede usar pingar para lanzar un PING? ¿Puede ser un circuito pingable?». «¡Ojo!, que en Perú pingable puede querer decir que puede ser objeto de una relación sexual ». Pues ya no puedes decir pingable, o si se dice sabiendo que... Aquí, se podría abrir un debate... El problema está en que realmente hay muchas veces que ni la gente tiene tiempo de debatir ni a veces los perfiles de los términos no están claros ni en el inglés... 

Voy a poner un ejemplo de una institución que hace un trabajo terminológico bastante bueno, que es el TERMCAT del catalán. Aquí tenemos la paradoja de que una lengua demográficamente pobre se ha defendido de una forma que el castellano o español no ha hecho. ¿Qué es lo que hace el TERMCAT? Primero detecta los posibles neologismos y los discute en un panel de expertos, que es un lujazo. Ahí hay una serie de personas diciendo: «¡Ah pues yo cookie le veo...!». «No, porque se está empezando a usar para esto...». «Pero en inglés se dice...». «¿Y cómo se dice en italiano...?». «¿Y en castellano...?». Se debate, a veces horas, porque es un debate técnico muchas veces fino y al final, entra aquí ya la parte normativa, va al Institut d'Estudis Catalans , a los que se les da un abanico y que es el que dice: «En vista de lo que hay dígase de tal manera». Luego, el catalanohablante, como cualquier hablante, hace lo que quiere, pero digamos que hay un diccionario, se registra... 

Insisto, el problema es que este es un proceso largo, complejo, hay que saber mucho... Muchas veces no hay tiempo, no hay recursos, se necesita poner a trabajar a muchas personas y muchas veces mientras estás discutiendo, la palabra entra en desuso, cuando llega al diccionario ya no se usa... Esto de la lexicografía, como sabe bien alguna persona presente en esta sala, es como el trabajo de Sísifo: uno levanta la piedra del diccionario y mientras tanto a tus espaldas se ha deshecho la lengua y ya es de otra manera. 

Bien, ¿qué se puede hacer con esto? Pues no lo sé muy bien, pero en general podríamos decir que alguna plataforma común de detección y de debate y de consenso estaría bien para que en el momento en que alguien tiene que desarrollar un documento técnico, en el momento en que un periodista tiene que hablar de algo pues en vez de coger y adaptar, pues eche un ojo ahí. Esta podría ser una posibilidad. ¿Qué problemas encontraríamos aquí? Pues todos. En los neologismos actuales se oscila entre la adopción del barbarismo crudo, tipo cookie, hasta la adaptación gráfica, tipo cuqui con cu, que es como el güisqui, con ge y u con diéresis, una cosa muy rara; las traducciones literales: traducir cookie como galleta o buñuelo; traducciones conceptuales, traducirlo como chivato o testigo o soplón... Bien, ¿al final que es lo que pasa? Pues que la gente dice /kuki/ y escribe cookie a la inglesa; ¿por qué?, porque si hablo de los chivatos de mi browser, pues nadie se va a enterar y con razón... Y ¿podríamos haber cogido hace —no sé cuánto llevarán las cuquis entre nosotros, ¿tres años? [RFC: tienen más, cinco] ¿cinco?, bueno pues cinco— hace cinco años y haber pactado rápidamente buñuelo? Pues a lo mejor podríamos haberlo hecho. ¿Habría valido la pena? No lo sé. ¿Diría la gente ahora buñuelo? Pues tampoco lo sé. 

Ya sabéis de que yo parto de otra idea que también voy a deciros crudamente: No creo que al español le ataque nadie ni esté en mayor peligro que cualquier otra lengua, incluidas las grandes lenguas, como el inglés, que están también muy atacadas, o no atacadas. Insisto, yo tengo la idea de un organismo vivo coexistiendo con otros. No creo que el inglés nos ataque, ni creo, por tanto, que tengamos que defendernos. Lo que sí parece es que en ciertos casos a la gente le gusta más decir las cosas en inglés. ¿Por qué la tienda que está aquí, en la esquina de Quintana, se llama Mister Muscle en vez de Don Músculo? Bueno, pues porque le suena mejor, porque alguien piensa que queda más moderno... Aquí nos vamos a encontrar ese proceso y otros muchos. Nos vamos a encontrar con adaptaciones conceptuales, con traducciones formales, como adaptaciones como reset, resetar, con bugs y con bugazos... nos vamos a encontrar con distintos tipos de cosas en distinto estado de asimilación... Ahí las personas más puristas pondrán más el grito en el cielo ante ciertas cosas; los más tranquilos, les parecerá muy bien que estén allí. Pero, insisto, una de las pocas cosas que se podrían hacer sería la detección temprana y la propuesta o el abanico de propuestas... la propuesta, incluso, en el ámbito terminológico neolatino, es decir, de las lenguas derivadas del latín. En este sentido hay propuestas que se están haciendo desde una institución que se llama Unión Latina, que  se ocupa, entre otras cosas, de propiciar soluciones terminológicas generales en el ámbito neolatino; es decir, para que el italiano, el catalán, el francés y el castellano...., traduzcan todos lo que sea pero que usen raíces comunes que luego favorezca consolidar un área terminológica común, que favorezca trasvases... 

Esto es lo que yo creo que se puede hacer. ¿Y quién podría hacerlo? Desde mi punto de vista, pero me encantará oír opiniones, debería ser una palestra neutra, en la cual, ni las instituciones históricas con una carga normativa fuerte están para hacer eso, es decir no lo tienen entre sus fines y estirarse o ampliarse hasta ellos sería, quizás, excesivo... La terminología hoy en día es una ciencia que se estudia y se trabaja y tiene unos perfiles muy precisos, exige unos saberes muy concretos, que hay que dominarlos, que no son triviales... debería haber un fuerte apoyo terminológico puro, y por último la discusión y el consenso de los usuarios allá hasta donde llegue. 

Sobre el tema de la influencia de las nuevas tecnologías sobre la lengua yodiría hasta aquí, sencillamente, y dejaría levantados todos estos hilos. 

Para entrar en la segunda parte de lo que quería contar, que es la acción lingüística en el medio digital.  ¿Qué quiero decir con eso?: 

Bien, estoy hablando básicamente de programas destinados a hacer uso de la lengua natural, en nuestro caso el español, entre los cuales incluiría desde tipos avanzados de buscadores a conversores texto-habla y habla-texto a desarrollo de interfaces que pudieran usar la lengua hablada a, en general, cualquier tipo de dispositivos automáticos que permitieran el uso e interacción de dos hablantes de distintas lenguas con la mediación de un sistema automático, o bien de un hablante y una lengua natural usándola con un sistema automático. 

¿Por qué creo que este es un tema importante? 

Por varias razones. En primer lugar porque parece claro que las interacciones con los sistemas automáticos usando la lengua natural o bien las interacciones de dos hablantes de distintas lenguas usando un sistema automático van a crecer mucho, por una razón muy simple: porque la mejor interfaz es la lengua natural, es decir. no hay conjunto de comandos que pueda tener la riqueza y la flexibilidad de algo que además todos tenemos desde pequeñitos. Entre hacer clic, desplegar menús, buscar formularios o bien decirle a un sistema automático: «Oye, por favor —o sin favor—, búscame esto y lo otro..., localízame...». Bien, parece mucho más normal usar la lengua natural. Por recoger un eslógan que popularizó la IBM: «la interfaz eres tú», ¿para qué queremos interfaces, ratones... si tenemos una interfaz que es la que estamos usando ahora mismo? [se señala la boca] 

Además de esto hay otros dos aspectos, uno social y otro económico. Muchos de los programas que van a usar o que están usando ya la lengua natural van a permitir que una serie de usuarios escriban, perfeccionen su lengua, busquen conocimientos en bases de datos, hagan resúmenes automáticos o semiautomáticos..., es decir, las herramientas lingüísticas en el ámbito digital van a potenciar o están ya potenciando el uso de diccionarios ideológicos o de sinónimos... Son herramientas que los usuarios de una lengua utilizamos todos los días y que van en favor de un mayor dominio de la lengua por parte de los hablantes, así de sencillo. 

Si lo amplíamos a los sistemas de traducción automática o de ayudas a la traducción veremos que para una capa de usuarios muy grande se abren las puertas de grandes conjuntos de documentación que no están en la lengua de uno; he ahí otro aspecto muy interesante. Pero además en un futuro hipotético quizás no demasiado lejano de uso de la lengua natural para propósitos de búsqueda, de comercio electrónico, de acceso a información y petición de resúmenes automáticos, de traducción, etcétera, de cara también a la formación, a la enseñanza por sistemas automáticos, por tutorías semiautomáticas... todo ello puede tener gran importancia de tipo económico.

Hace pocos meses, por deseo de poner unos perfiles un poco palpables a esto que puede ser muy vago, intenté cuantificarlo. Si no me equivoqué mucho, y aunque esto está publicado desde el mes de enero, y ha habido un congreso dedicado prácticamente a esto, nadie me ha corregido ni una coma, equivaldría más o menos al peso económico de todo el sector editorial español de España y de Hispanoamérica. Es decir, esto es una nueva rama de la producción económica que sería tan grande como la producción del sector editorial en lengua española. Hablo aquí solamente de los sistemas automáticos de lengua como mediación, que muy probablemente no pagaremos directamente, pero cuando uno vaya dentro de unos años a una librería virtual y le diga: 

—Oye, quiero una novela de detectives. 

Y te pregunte: 

—¿Y te gusta las de Chandler?

—Sí. 

— Pues tengo algo parecido, pero con un detective chino... 

—¡Ah!, ¡qué interesante! 

Y al final, lo compres, ahí habrá una mediación que no pagaremos directamente pero que irá en forma de un porcentaje sobre la transacción a alimentar ciertos programas de los que he hablado antes. 

En estos aspectos tanto del uso privado en procesadores de texto, ayudas a la redacción, ayudas a la ortografía, diccionarios... o en los programas que permitan la interacción con la lengua natural, en este sector que como ya digo puede ser tan importante como todo el sector editorial, digamos ¿en qué manos va a estar? ¿En qué manos desde el punto de vista de la economía y desde el punto de vista de servicio a la sociedad? Es decir, ¿a qué intereses va a servir? y su negocio ¿en qué manos va a caer? 

Desde el punto de vista de los pasos conducentes a disponer de estas tecnologías nos encontramos con que hay dos elementos muy diferenciados: Por una parte la investigación que podríamos llamar de lingüística computacional que alimentará estos sistemas automáticos, y luego, simplificando un poco, la parte informática. 

Los diccionarios morfológicos, las reglas de derivación, las bases de datos lexicográficas computerizadas que podrían alimentar, y ya están alimentando, estos sistemas automáticos, hoy por hoy, están dispersos en mano de una treintena de departamentos, grupos de investigación, cuya característica más destacada es que jamás ninguna de sus investigaciones llega al mercado. En este sentido podemos encontrar acuerdos parciales de alguno de estos grupos con algunas empresas, por lo general grandes mutinacionales, que acabarán conduciendo a un reconocedor de voz para un sistema de posicionamiento geográfico dentro de un automóvil, un ejemplo real. 

El problema es que esta investigación financiada con dinero público no está llegando no ya a sus destinatarios empresariales vía transacción, sino que muchas veces no está llegando a ningún lado, con el agravante suplementario de que se están duplicando investigaciones, esfuerzos, en sitios diferentes haciendo lo mismo porque no hay una coordinación de política científica a este respecto. 

Puestas así las cosas, mientras tanto, las grandes empresas del software están comprando a nuestros expertos, a nuestros filólogos formados por accidente en lingüística computacional en los pocos departamentos que hay, para desarrollar las herramientas lingüísticas del español, que después del inglés han sido el objetivo de estas empresas. Nos podríamos encontrar con la paradoja de que dentro de muy poco, o ya en cierta medida, nos estén vendiendo cuestiones hechas con nuestra propia investigación que no ha llegado al mercado o no se ha abierto por sus vías naturales y se nos devuelve y se nos cobra por ello. Es dudoso si estamos en un momento en el cual puede haber desarrollos abiertos que cubran este aspecto o si es demasiado tarde y estamos condenados a pagar por usar una frase que uso a veces pero que es bastante realista: «a pagar por usar nuestra lengua en las redes». Es posible que estemos condenados, no lo sé. 

La propuesta que hice públicamente en el Congreso de Valladolid y que publiqué antes en un cuaderno sobre el tema en Archipiélagoes que sencillamente todos los recursos digitales, tanto recursos de investigación como corpus, como los resultados de estos productos, como diccionarios morfológicos, léxicos, bases de datos, etcétera, se abran, se pongan, se cuelguen en la Red y que quien quiera los coja. En la reflexión de que esto solamente puede conducir a que se desarrollen, a que tengamos de aquí a poco idealmente cuatro correctores de estilo, dos correctores ortográficos que se puedan enchufar a otros programas, que tengamos diccionarios morfológicos que luego se puedan usar para reconocedores de habla, o para conversores texto-habla; es decir, que se puedan generar los productos que hoy por hoy no los estamos haciendo aquí y además quienes lo hagan lo van a controlar y nos lo van a revender. 

Con este panorama cerraría la segunda parte de mi intervención de las posibilidades de nuestra lengua en sistemas automáticos y en el medio digital. 

Y esto es lo que os quería contar y de aquí en adelante soy todo oídos. 

 


 
 
Última actualización: 8de febrero del 2002
Sugerencias, comentarios, noticias, advertencias, ...info@ati.es
Mejor con cualquier visualizadorHTML 3.2


Sitio Web creado en 1994 por ATI (Asociación de Técnicos de Informática)
Este es el más antiguo de los webs asociativos de España