摘要:El algoritmo Stanford Multi Sieve Pass (propuesto por Raghunathan et al. 2010) realiza secuencialmente una serie de pasos de reconocimiento que de manera incremental terminan proponiendo correferencias entre las entidades candidatas identificadas en el texto. En este artículo, presentamos brevemente los trabajos de adaptación de este algoritmo y de otras herramientas de análisis (p. e., OpeNER) a textos en español (Agerri et al. 2013; Bermúdez 2013). A fin de avanzar en el desarrollo de estas herramientas para el Procesamiento del Lenguaje Natural (PLN), aplicamos estas directrices manualmente sobre un corpus experimental extraído de Wikipedia, con los que se pueden configurar textos breves (como por ejemplo tuits u otro tipo de microcontenidos) con sentido pleno. Como resultado, se ofrece un ejemplo de análisis manual que será automatizado en etapas posteriores de la investigación.
其他摘要:The algorithm (proposed by Raghunathan et al. 2010) sequentially performs a series of pass of recognition, and allows to go incrementally proposing candidates to coreferenced between named entities in the text. The article briefly presents the work of adapting the algorithm Stanford Multi Pass Sieve and other analysis tools (OpeNer) to texts in Spanish (and other Agerri 2013, Bermúdez 2013). The result is a fragmented speech in sentences with full sense, that even being independent of the speech have not lost the discursive framework they belong (to inherit metadata documentaries). This can feed the event-based knowledge systems, or be linked to deposits of open data, or published independently (vg. as tweets). As a result, the article offers an example of manual analysis that, in further research, will be automatic.
关键词:Correferencia; Captura de eventos; Algoritmos de resolución; Simple Event Model; Datos enlazados.