Hallo Benny,
ich hatte ein solches Problem schon mal in ähnlicher Form, und habe es wie
folgt gelöst:
- Ich habe einen Scheduler Task gebaut, der eine Hilfstabelle baut (< 20
Zeilen)
class tx_dmextindexedsearch_scheduler_task extends tx_scheduler_Task {
function execute(){
// truncate
$GLOBALS['TYPO3_DB']->sql_query(
'TRUNCATE tx_dmextindexedsearch_helper'
);
$GLOBALS['TYPO3_DB']->sql_query(
'INSERT INTO tx_dmextindexedsearch_helper ( pid, char_bb5ecf0c39 )
SELECT 54 , uid FROM blub WHERE parentid = 20
);
}
}
- mit dieser Hilfstabelle kann ich dann crawlen:
&tx_xyz[uid]=[_TABLE:tx_dmextindexedsearch_helper;_FIELD:char_bb5ecf0c39]
So ähnlich, mit mehr Feldern, müsste das doch bei dir auch gehen.
On Tue, 21 Feb 2012 16:12:24 +0100, <b...@minschulte.de> wrote:
Hallo zusammen!
Für einen statischen Export muss ich URLs in den Crawler kriegen, welche
leider relativ kompliziert aufgebaut sind.
Die URL-Parameter hängen nämlich in YAG (Yet another gallery) leider von
der UID des tt_content Eintrags ab.
Ich muss also folgende URL (gekürzt) generiert kriegen:
tx_yag[context720][albumUid]=12&tx_yag[context720][galleryUid]=3&tx_yag[contextIdentifier]=720
Die ID 720 ist in diesem Beispiel die UID des tt_content Elements der
Bildergalerie.
Nun ist meine Frage: Wie kriege ich die URLs in den Crawler?
Ich habe schon mit Workarounds alá
[_TABLE:tt_content;_PID:yag_pi1;_PIDFIELD:list_type] versucht - leider
vergebens.
Gibt es nicht irgendeine Möglichkeit URLs per UserFunction in die
Crawler-Queue zu bekommen? Am besten so, dass es auch mit dem
scheduler-Task funktioniert.
Vielen Dank im voraus!
~Benjamin Schulte
---------------------------------------
TYPO3 Certified Integrator - TYPO3 Freelancer aus Köln
http://www.benjaminschulte.de/
--
Patrick Schriner
_______________________________________________
TYPO3-german mailing list
TYPO3-german@lists.typo3.org
http://lists.typo3.org/cgi-bin/mailman/listinfo/typo3-german