Analysing message streams in a dynamic environment is challenging. Various methods and metrics are used to evaluate message classification solutions, but often fail to realistically simulate the ...actual environment. As a result, the evaluation can produce overly optimistic results, rendering current solution evaluations inadequate for real-world environments. This paper proposes a framework based on the simulation of real-world message streams to evaluate classification solutions. The framework consists of four modules: message stream simulation, processing, classification and evaluation. The simulation module uses techniques and queueing theory to replicate a real-world message stream. The processing module refines the input messages for optimal classification. The classification module categorises the generated message stream using existing solutions. The evaluation module evaluates the performance of the classification solutions by measuring accuracy, precision and recall. The framework can model different behaviours from different sources, such as different spammers with different attack strategies, press media or social network sources. Each profile generates a message stream that is combined into the main stream for greater realism. A spam detection case study is developed that demonstrates the implementation of the proposed framework and identifies latency and message body obfuscation as critical classification quality parameters.
A radar display is an electronic device used to present a continuous graphic image, which allows easy understanding of the relative position of detected objects. Modern displays perform the ...representation by obtaining digital signals. Most of the available tracking radar displays are based on analog technology. They are high consumers of electrical energy, have a large volume and weight, their parts are obsolete and it is impossible to acquire spare parts from the international market. These displays are subject to long maintenance periods, as they are unstable during operation. The objective of this work is to design and implement a digital display of radar signal information that complies with the update period of a tracking radar. The proposed solution uses the Raspberry Pi 4 single board computer and the software was developed in the Qt Creator cross-platform development environment. In addition, parallel computing was used to achieve the reception, processing and representation of the data, complying with the update period of the tracking radar information. This allowed to reduce the software execution time and to comply with the radar update period, unlike the sequential version where the time restriction was not met. As a result, a technological replacement of the analog display system, which has low power consumption, cost and size, was obtained.
Un visualizador de radar es un dispositivo electrónico que se utiliza para presentar una imagen gráfica continua, que permita comprender de forma fácil la posición relativa de los objetos detectados. Los visualizadores modernos realizan la representación a partir de la obtención de señales digitales. La mayoría de los visualizadores de radares de seguimiento con que se cuenta están sustentados en tecnología analógica. Estos son altos consumidores de energía eléctrica, poseen gran volumen y peso, sus piezas están obsoletas y existe incapacidad de adquirir los repuestos en el mercado internacional. Estos visualizadores están sometidos a largos períodos de mantenimiento, al presentar inestabilidad durante su funcionamiento. El objetivo de este artículo es diseñar e implementar un visualizador digital de la información de señales de radar que cumpla con el período de actualización de un radar de seguimiento. En la solución propuesta se emplea el ordenador de placa reducida Raspberry Pi 4 y el software fue elaborado en el entorno de desarrollado multiplataforma Qt Creator. Además, se empleó la computación paralela para lograr la recepción, el procesamiento y la representación de los datos cumpliendo con el período de actualización de la información del radar de seguimiento. Esto propició disminuir el tiempo de ejecución del software y cumplir con el período de actualización del radar, a diferencia de la versión secuencial donde no se cumplió con la restricción temporal. Como resultado se obtuvo una sustitución tecnológica del sistema visualizador analógico que posee bajo consumo eléctrico, costo y tamaño.
Now-a-days, email is often one of the most widely used means of communication despite the rise of other communication methods such as instant messaging or communication via social networks. The need ...to automate the email stream management increases for reasons such as multi-folder categorization, and spam email classification. There are solutions based on email content, capable of contemplating elements such as the text subjective nature, adverse effects of concept drift, among others. This paper presents an email stream classifier with a goal-oriented approach to client and server environment. The i* language was the basis for designing the proposed email stream classifier. The email environment was represented with the early requirements model and the proposed classifier with the late requirements model. The classifier was implemented following a multi-agent system approach supported by JADE agent platform and Implementation_JADE pattern. The behavior of agents was taking from an existing classifier. The multi-agent classifier was evaluated using functional, efficacy and performance tests, which compared the existing classifier with the multi-agent approach. The results obtained were satisfactory in all the tests. The performance of multi-agent approach was better than the existing classifier due to the use of multi-threads.
The automatic keyphrases extraction is a useful task for many computational solutions in the natural language processing and text mining areas. In this paper, a new unsupervised method for keyphrase ...extraction from texts is proposed, in which the use of lexical-syntactic patterns is combined with a graph-based topic analysis strategy. The method was evaluated with the SemEval-2010 and INSPEC corpus, and compared with other state-of-the-art proposals, obtaining promising results.
La Minería de Texto constituye el proceso de descubrimiento de conocimiento, previamente desconocido y potencialmente útil, mediante la extracción automática de información desde diferentes recursos ...escritos. La estructuración del contenido textual en modelos de representación intermedia constituye un aspecto clave en este proceso. En el trabajo se propone un nuevo modelo de representación basado en grafos para la estructuración de contenidos textuales y un método para su construcción automática. El modelo está basado en la representación de frases conceptuales y las relaciones entre ellas, a partir de análisis de proximidad en el texto, para lo cual fueron definidas varias medidas de distancia. En el método propuesto se combinan técnicas de procesamiento de lenguaje natural, con patrones léxicos y recursos de conocimiento para extraer los conceptos, y fueron definidos dos métodos para identificar las relaciones: distancia más cercana y ventana contextual. Se concibió en tres fases fundamentales: preprocesamiento, extracción de información, y refinado, y se evaluó experimentalmente con noticias de una colección de referencia. Los experimentos se orientaron a evaluar la cantidad de información contenida en los grafos resultantes, así como la precisión en la extracción automática de conceptos, en los cuales se obtuvieron resultados prometedores.
En el presente trabajo se describe una alternativa de solución para incorporar semántica en los procesos de búsqueda e integración en la recuperación de conocimiento en Mapas Conceptuales. La ...solución consiste en un mecanismo de análisis semántico que extiende la semántica de los conceptos usando una Ontología de Dominio Terminológica como recursos de conocimientos. La ontología a emplear es de dominio específico y codificado en lenguaje OWL. Son definidas un conjunto de reglas para modelar el tratamiento de la semántica, reconocida en el proceso de extensión, como parte de los proceso de búsqueda e integración de conocimiento. Las bondades del mecanismo de análisis semántico propuesto se ejemplifican y demuestran con su aplicación práctica en el escenario de la pedagogía, específicamente, en lo referente al análisis conceptual de definiciones. Se considera que esta propuesta es generalizable al procesamiento de otros tipos de grafos basados en estructuras conceptuales similares a los Mapas Conceptuales.
del conocimiento y en la Web Semántica. Las ontologías son especialmente útiles debido a que apoyan procesos que conlleven intercambiar y compartir información. El aprendizaje de ontologías desde ...texto es el proceso de obtener conceptos de alto nivel y sus relaciones. Una tarea importante en el aprendizaje de ontologías desde texto es la obtención, desde información no estructurada, de un conjunto de conceptos representativos, que modelen un dominio, y organizarlos en una estructura jerárquica (taxonomía). En el proceso de construir una taxonomía, la identificación de relaciones hiperónimo/hipónimo entre términos es esencial. Una tarea retadora es la construcción de forma automática de la estructura apropiada para representar la información que se encuentra en textos no estructurados. Este trabajo presenta un método para obtener, desde textos no estructurados, conceptos representativos y sus relaciones taxonómicas en un dominio de conocimiento específico. Este enfoque construye una jerarquía de conceptos desde un corpus de texto de dominio específico mediante el uso de un conjunto de patrones lingüísticos. Se ejecutan experimentos para evaluar la propuesta. Se evalúa la calidad de la taxonomía que se construye contra ontologías estándar de oro, los experimentos muestran resultados prometedores
The automatic keyphrases extraction is a useful task for many computational applications in the natural language processing and text mining fields. Several solutions to this problem have been ...reported, but the obtained results still show low rates of accuracy and performance. In this paper, a new unsupervised method for keyphrase extraction from text documents is proposed. The use of lexical-syntactic patterns is combined with a graph-based topic modeling in this approach. The topic modeling is supported by a semantic analysis process carried out from the fuzzy logic perspective. The method was evaluated with the SemEval-2010 and Inspec datasets and compared with other state-of-the-art proposals.