2002/zzz

Kémia

SZÁMÍTÓGÉPPEL TÁMOGATOTT GYÓGYSZERTERVEZÉS

Eredmények, remények, perspektívák

Kövesdi István

tudományos főmunkatárs
EGIS Gyógyszergyár Rt., Budapest

Dancsó András

tudományos főmunkatárs
EGIS Gyógyszergyár Rt., Budapest

Blaskó Gábor

az MTA lev. tagja, c. egyetemi tanár,
kutatási igazgató, EGIS Gyógyszergyár Rt., Budapest
director.rd@egis.hu

A számítógéppel támogatott gyógyszertervezés (Computer Aided Drug Design -, CADD) 40 év látványos sikerei után is még csak lehetőségeinek töredékét aknázta ki. A kvantitatív szerkezet-hatás összefüggéseken alapuló, racionális gyógyszertervezést már a számítógépek megjelenése előtt is alkalmazták, de csak a megfelelő teljesítményű eszközök megjelenésével tudott a CADD elterjedni a gyógyszeriparban. A módszert igazoló első jelentős pénzügyi sikert a TAGAMET® márkanéven forgalmazott gyomorfekély-gyógyszer, a H-2 receptor antagonista cimetidin hozta. Ennek a receptre felírt gyógyszerek forgalmában néhány évig világelső gyógyszermolekulának a megtalálásához elsősorban számítógépes eljárásokat használtak. Ezzel a CADD módszer "Proof of Concept"-je a gyógyszeriparban bizonyítást nyert. A TAGAMET® után került piacra az enzim aktív helyének ismeretére alapozott, számítógépes tervezéssel kifejlesztett vérnyomáscsökkentő hatású ACE inhibitor captopril, amely hosszú ideig az első tíz hely valamelyikét foglalta el az 1980-as és 1990-es évek eladási listáin. Ezen évek pénzügyi sikert hozó, számítógéppel tervezett gyógyszerei között említésre méltó a NOROXIN® antibiotikum vagy pedig a magas vérnyomás kezelésére szolgáló TEVETEN. A 2001-es év gyógyszereladási 200-as toplistáján szereplő, alapjaiban számítógéppel tervezett gyógyszermolekulák adatait az 1. táblázatban foglaltuk össze.

1. táblázat • Számítógéppel tervezett gyógyszerek adatai (2001)

Új eszközök; statisztika, dokkolás-elemzés

A számítógépes gyógyszertervezési módszerek száma már közelít a tízezres számhoz, összefoglaló ismertetésük is köteteket tölt meg (Kubinyi, 1993, 1998, 1999). Ezek részletes tárgyalására jelen cikk keretei között nyilván nem vállalkozhatunk, csupán nagy vonalakban kísérlünk meg áttekintést adni a módszerek teljesítőképességéről.

Elöljáróban érdemes megjegyezni, hogy manapság a kémiai tudásunk egy része is számítógépes formában jelenik meg. Gondoljunk például a molekulák ábrázolására vagy térszerkezetük gyors meghatározására és szemléltetésére. A számítógépes molekulatervezés kicsit hasonló hatással van a kémiára, mint az űrtechnika az ipari technikára. A CADD-ban bevált eszközök és modellezési módszerek lassan, de biztosan megjelennek a kémia oktatásában és a szintetikus laboratóriumokban elhelyezett számítógépeken is, mint ahogy az űrtechnika számos hajdanvolt újdonsága ma már a háztartásokban is megtalálható. Az is figyelemre méltó, hogy keresve sem találhatnánk nagyobb mértékben interdiszciplináris területet, mint a számítógépes gyógyszertervezés. Az adott feladatra vonatkozó speciális ismereteken felül általában szükség van a kémia, a molekuláris biológia, a matematika és a statisztika, valamint nem utolsósorban a számítástechnika tudományának használatára is a tervezési feladat megoldásánál.

A víz/oktanol megoszlási hányadosból Hansch által származtatott p paraméter bevezetése kvantitatív szerkezet-hatás összefüggések (Quantitative Structure Activity Relationship - QSAR) megállapítását tette lehetővé a biológiában. A molekula részeiből additív módon származtatható p paramétert a moláris refrakcióval, valamint az ugyancsak additív elektronos és sztérikus paraméterekkel kombinálva számos in vitro biológiai aktivitás kvantitatív modelljét lehetett felállítani. Bár ezek a klasszikus QSAR modellek kísérleti alapokon meghatározott paramétereket használtak, és elsősorban az adott kémiai-biológiai folyamat leírására, analizálására és nem pedig predikcióra szolgáltak, elindították a tervezésre is használható szerkezet-hatás összefüggések kidolgozását. Randie, Kier és Hall munkásságát követően pedig megjelentek a molekulaszerkezetből mérés nélkül számolható paraméterek, amelyek alkalmasnak bizonyultak a számítógépes statisztikai elemzés és tervezés céljaira. A CADD statisztikai módszerei nem a fizikai vagy biokémiai alapelvekből próbálják értelmezni a gyógyszer és az élő szervezet kölcsönhatását, ehelyett a gyógyszermolekulához a kémiai szerkezetből kalkulált számszerű adatokat rendelnek. Ezek a deszkriptorok, melyekhez hozzáveszik a mért biológiai adatokat, és különféle matematikai eljárásokkal verifikálható statisztikai összefüggéseket állítanak fel a deszkriptorok és a biológiai adatok között. A módszer fő nehézsége az, hogy a mért biológiai adatok általában csak közelítő értékűek, vagy a biológiai effektus természetéből eredően, nagy szóródást mutatnak. Az adatok hibájánál vagy a természetes szóródásánál pontosabban becslő modellt természetesen nem lehet felállítani. Ha viszont a modell becsléseinek pontossága megközelíti a kiindulási adatok szórását, akkor megvalósítható nagyszámú tervezett molekula statisztikailag helytálló számítógépes szűrése. A véletlenszerűen vizsgált molekulák esetéhez képest még egy viszonylagos statisztikai előrejelzés is megtöbbszörözheti az aktív vagy kívánt tulajdonságú molekulák arányát a biológiai tesztelés során, ha a tesztelésre elsősorban a statisztika által aktívnak, jónak javasolt molekulákat használjuk fel. A statisztikai alapokon nyugvó QSAR módszereknek a többi CADD módszertől eltérően reális esélyük van arra, hogy az elkövetkező 5-10 évben is lépést tartsanak a gyógyszeripari kutatási adatok számának robbanásszerű növekedésével.

A gyógyszermolekuláknak a fehérjemolekulákhoz való specifikus kötődését leíró kulcs-zár elméletből kiindulva több megközelítés is született a hasonló hatású vegyületek térszerkezetének statisztikai elemzésre, amelynek célja az ismeretlen receptor vagy aktív hely térbeli modelljének a felállítása volt. A nehézség itt abban rejlik, hogy több különböző receptor, illetve egy receptoron több különböző kötőhely, illetve egy kötőhelyen többféle illeszkedés is eredményezhet hasonló hatást. Ráadásul a vizsgált molekulák konformációs változatossága is igen nagy lehet, és ez a változatosság hatványozottan jelentkezik a molekula-átfedések számítógépes elemzésénél. Mindezek nagyon lelassítják a becslésre, illeszkedésre is használható 3-dimenziós (3D) receptor modellek elkészítését.

A molekulák axiómákra alapozott modellezésére jól kidolgozott elméletek állnak rendelkezésre, ilyen például a kvantumkémia vagy pedig a fenomenológiai elvekre épülő molekulamechanika. A kvantumkémia alapját képező Schrödinger-egyenletet csak közelítőleg tudjuk megoldani a héliumatomnál bonyolultabb rendszerekre, de a kb. egyezrelékes elvi pontosság numerikus eljárásokkal megközelíthető. A számítási igény azonban rohamosan növekszik az atomok számával, illetve az elérni kívánt pontossággal. A magyar gyógyszeripar számára jelenleg hozzáférhető számítógépes kapacitással jól modellezhető például egyetlen, a végtelen üres térben izolált gyógyszermolekula, de attól még messze vagyunk, hogy megbízhatóan leírjunk egy fehérjét, amint az élő sejtben komplexet képez ezzel a molekulával.

A molekulamodellek megjelenítését végzi a molekulagrafika, ami igen alaposan kidolgozott terület, mivel a CADD-szoftvereknek ez a leginkább látványos része, mondhatni, ez adja el a programot. A molekulagrafikai programok új generációjával általában lehetséges a fehérjemolekulák és a ligandum molekulák kölcsönhatásának a felhasználó által irányított interaktív vizsgálata. A molekulák kölcsönhatását a programok általában molekulamechanikával számolják, és gyakran lehetőség van a ligandum molekula számítógéppel irányított automatikus dokkolására, a molekula receptorhoz való kötődésének szimulálására is a kötőhelyen. Minden molekulakölcsönhatásokat számoló módszer eredményei csak annyira megbízhatóak, mint a kölcsönhatás matematikai közelítésének pontossága. A dokkolás gyakran a merev peptidszerkezethez közeledő, jobb esetben flexibilis molekula rendkívül elnagyolt közelítéssel számolt mozgásán, kölcsönhatásán alapszik. Éppen ezért a legtöbb dokkoló program eredményeinek hibája nem kisebb, mint a megalapozott statisztikai módszerek becsléseié. A dokkolási módszer csúcsteljesítménye az, amikor az aktív hely környezetének atomjait mind figyelembe vevő, a kölcsönhatást viszonylag pontos kvantumkémiai eljárással számoló molekuladinamikai számítást végeznek. A rendkívül időigényes eljárás során meghatározzák a ligandum molekula pillanatnyi helyzetének, mozgásának térbeli eloszlását az aktív hely környezetében. A módszer figyelembe veszi az atomok hőmozgását is, és a kapott térbeli eloszlásfüggvényből az aktív hely - ligandum kölcsönhatás alapvető termodinamikai paraméterei kiszámolhatók. Az ilyen számítások szuperszámítógépeken vagy manapság UNIX clustereken is több hónapig tartanak, és még ezeknek a hatalmas számítógéprendszereknek a kapacitása is messze van attól, hogy a teljes peptidszerkezet dinamikáját is figyelembe lehessen venni. A kvantumkémiával kombinált molekuladinamikai számításokból kapott termodinamikai paraméterek azonban tartalmazzák az aktív hely - ligandum kölcsönhatás igen fontos, gyakran meghatározó entrópiajárulékát is. Ez a többi dokkoló vagy 3D receptor modellező CADD eljárásról nem mondható el.

A racionális gyógyszertervezés jelenleg használt legfejlettebb módszere a következő. Először kikristályosítják a megcélzott fehérjét, majd röntgenspektroszkópiával meghatározzák a térszerkezetét. Ezután kikristályosítják egy már ismert gyógyszermolekulával alkotott komplexét is, ennek is meghatározzák a térszerkezetét, ebből megtudják a fehérje kötőhelyének helyzetét. Végül következhet a számítógépes tervezés: különféle molekulákat próbálnak illeszteni, dokkolni a kötőhelyhez. A dokkolást sokszor, a már említett módon, molekulamechanikára alapozott automatikus módszerek is segítik. Itt is vannak azonban gondok. Nem minden fehérjét tudunk kikristályosítani a természetes állapotában, a receptormolekulák nagy része, például a G-protein csatolt receptorok ugyanis a sejthártyában úsznak. Ráadásul egy fehérjének általában több, jellemzően négy-öt különböző kötőhelye is van, amelyekhez egészen más típusú molekulák kapcsolódhatnak. A röntgenkrisztallográfiával meghatározott szerkezet az egyensúlyi hőmozgástól eltekintve sztatikus, a természetes élő környezetében a sejtben viszont a fehérje dinamikusan mozog. A ligandum közeledésekor az aktív kötőhely nagymértékben átalakulhat, és erre egyre több és több példát találunk. Mégis ez az utóbbi módszer számos aktív HIV-proteáz inhibitor számítógépes tervezését tette lehetővé az utóbbi években. Ezen ígéretes gyógyszerjelöltek közül 18 már a klinikai vizsgálatok fázisában van, és néhány éven belül a piacra kerülhet.

Nem csak a számítógép kicsi

Az 1. táblázatban a helyezési sorszámokat újra áttekintve látható, hogy ezek a már piacra került, számítógéppel tervezett gyógyszerek valójában nem értek el kimagasló piaci eredményt. Árbevételük az összes gyógyszerforgalom alig 2 %-át teszi ki. Felmerül a kérdés, hogy a többi, sikeres gyógyszert milyen úton találták meg. Megállapítható, hogy gyakorlatilag véletlenül. A véletlen elsősorban persze a racionálisan gondolkodó gyógyszerkémikusokat segítette, de ebben a racionális megközelítésben a számítógépes modellezésnek nem sok szerep jutott. A CADD teljesítményének mérsékelt volta mindenképpen elmarad az elsősorban akadémiai körök által szított rendkívül optimista várakozásoktól, és az elmaradás alapvető okai nem csupán a számítógépeink jelenleg talán még csekély teljesítményében, hanem az elsősorban leíró, utólag magyarázó jellegű kémiai és biológiai tudásunk nem kielégítő mélységében rejlik.

A járműipar, illetve a nukleáris ipar már rendkívül precíz és megbízható matematikai modellezési eljárásokkal rendelkezik. Ezek a modellezések a számítógépek áramköreiben létrejövő virtuális térben és időben lehetővé teszik komplett járművek, repülő szerkezetek és hajtóműkonstrukciók ezerféle változatának kipróbálását, vagy például nukleáris fegyverek szerkezetének optimalizálását, anélkül hogy drága és veszélyes kísérletek százait kellene elvégezni. Ezek a matematikai modellek a fizika és a kémia alaptörvényein nyugszanak, és az atomi kölcsönhatásoktól kezdve a makroszkópikus jellemzőkön át viszonylag hűen figyelembe veszik az anyagok kémiai, fizikai tulajdonságait, a szerkezetek mechanikai viselkedését, a gázok és folyadékok áramlásának dinamikáját. A számítógéppel támogatott gyógyszertervezés még messze nem bír az előbb említettekhez hasonló pontos matematikai modellekkel, és nem sok jel mutat arra, hogy ilyen eszközök az elkövetkező 5 évben megvalósításra kerülnek. Ehhez pontosabb biológiai ismeretek és alapvetőbb törvények felismerései kellenek majd. A tudomány például majdnem egy nagyságrendet tévedett csupán csak az emberi gének számának megbecslésénél. Ezek számát ugyanis 100 000 és 250 000 közé feltételezték, ugyanakkor a humán genom program csupán kb. 35 000 gént talált. A közelítő fizikai alapelveken nyugvó ab initio kvantumkémiai módszer vagy akár a molekulamechanikát használó számítások pedig a jelenlegieknél ezerszer vagy akár milliószor nagyobb teljesítményű számítógépeket igényelnének, akár csak egy kis sejtmembrán részletnek vagy egy receptorfehérje és ligandum molekula-komplexnek a gyógyszerkutatásban használhatóan pontos dinamikai modellezéséhez.

Ha a hardver terén megvizsgáljuk a távlatokat, akkor például az USA kormányának ASCI (Accelerate Strategic Computing Initiative) programja csak 2006-ra tervezi 100 Teraflopos számítógépek létrehozását. Ez a számítási teljesítmény a jelenlegi csúcsrendszerek teljesítőképességének majd tízszeresét jelenti. Ez a jövőbeli fejlődési ráta megfelel Moor, az utóbbi ötven évben fényesen beigazolódott törvényének. A Moor-törvény ekvivalens megfogalmazása szerint a számítógépek teljesítménye 10 évente kb. a 100-szorosára növekszik. Tehát ha bízunk a számítógépeink teljesítményének töretlen fejlődésében, akkor is 10-20 évet kell várnunk a biológiailag releváns makromolekulák vagy molekularendszerek fizikai alapelveken nyugvó reális modellezésének a megjelenésére. S ekkor valószínűleg még távol leszünk a sejtjeink és szerveink prediktív erejű matematikai modellezésétől. Ehhez valószínűleg új tudományoknak is meg kell jelenni, például a statisztikus fizika analógiájára, nagyszámú kölcsönható makromolekula térben elrendezett specifikus együttesének viselkedését leíró "statisztikus molekuláris biológiának".

Gazdasági kényszer

A gyógyszergyártó vállalatoknak alapvető célja az, hogy növekvő és az ipar átlagánál nagyobb arányú osztalékot tudjanak fizetni a részvényeseknek, illetve extraprofitot termeljenek a tulajdonosoknak. Ez az egyébként triviális kijelentés akkor is igaz, ha figyelembe vesszük e vállalatok néha speciális, az állam által részben felülről regulált helyzetét. Az a vezető, aki nem a profit tartós növekedésének érdekében allokálja és mozgósítja a vállalati erőforrásokat, beleértve a kutatást és a fejlesztést is, nem marad sokáig az állásában. E törekvések eredményeként a gyógyszeriparnak az elmúlt öt évben a bevételek 10 % fölötti növekedését sikerült megvalósítania, és messze magasabb profitrátát ért el, mint például a mezőgazdaság vagy az elektronikai ipar. Amikor a gyógyszeripari ágazat válságáról beszélnek, akkor ennek a dinamikus növekedésnek az egyre nehezebben és nehezebben való fenntartásáról van elsősorban szó. A kezdetben fetisizált hitech dot.com most már dot.gone, mivel az interneten szervezett gyógyszerkutatás nem vált be, és a cégegyesülések sem bizonyultak eléggé hatékony eszköznek a profit növelésére. Az összeolvadási folyamat lelassult, bár a nagyvállalatok fogyatkozó száma és növekvő agresszivitása is részben ez irányban hatott. A nagyvállalatok ezért célul tűzték ki a milliárdos forgalmú "blockbuster" gyógyszerek piacra hozatalának politikáját. Ez jól követhető a milliárd dollárnál nagyobb forgalmú gyógyszerek számának az utóbbi 7 évben való növekedésén végigtekintve. Az adatok szerint az ilyen gyógyszerek száma ez idő alatt majdnem megháromszorozódott a következő módon: 1995 - 17; 1996 - 25; 1997 - 27; 1998 - 30; 1999 - 35; 2000 - 44; 2001 - 48.

2001-ben a 2 milliárd dollárnál nagyobb forgalmú gyógyszerek száma már 17 volt, átlagosan 3 milliárd dollár bevétellel. 2005-ben a LIPITOR® márkajelű, jelenleg 7 milliárd dolláros és gyorsan bővülő forgalmú koleszterinszint-csökkentő gyógyszer bevétele minden bizonnyal meghaladja majd, a gyógyszeripar történetében először, az évi 10 milliárd dollárt. Ugyanebben az időszakban az évente piacra bevezetett kb. 50-60 új hatóanyag száma alig növekedett, vagyis a kiemelkedő pénzügyi eredményekben a marketingtevékenység is döntő szerepet játszott.

A növekvő profit irányába erőlködő gyógyszeripari tevékenységet azonban a marketingszlogenek mellett újabb és újabb nagyhatású hatóanyagokkal kell ellátni, és ehhez az alapot egyértelműen az originális gyógyszerkutatás adja. 2001-ben a világ gyógyszeripara 50 milliárd dollárt költött kutatásra és fejlesztésre. Ha a gyógyszeripar összes kutatási-fejlesztési költségét a piacra került új gyógyszerek kifejlesztéséhez szükséges ráfordításnak tekintjük, akkor ezek az egy hatóanyagra vetített költségek megháromszorozódtak az elmúlt évtizedben, és ma már a gyógyszeripar átlagában elérik a 880 millió dollárt. A hatalmas költségek 75 %-át a fejlesztés különböző fázisaiban elbukott többi molekulára fordított kiadás teszi ki. Nemcsak a molekulák, hanem a terápiás célok helyes megválasztása is komoly költségcsökkentő tényező lehet. Tíz közül egy tudományosan megalapozatlan, vagy ami még rosszabb, piacképtelen terápiás cél kiiktatása a kutatásból 100 millió dolláros nagyságrenddel csökkentheti egy-egy gyógyszer kifejlesztésének átlagos költségét az adott cégen belül. A hatóanyagmolekula szintetizálásától a termék törzskönyvezéséig átlagosan 15, de legalább 12 év telik el. Egy évi milliárdos forgalmú gyógyszer piacra hozatalában minden nap késlekedés 2-3 millió dollár bevételkiesést jelent a gyógyszergyárnak. Ezért érthető, hogy nincs az a számítástechnikai hardver és szoftver, amit azonnal meg ne vásárolnának, ha azzal akár néhány héttel is, de csökkenteni lehetne a gyógyszer piacra hozatalához szükséges időt. A szükséges számítástechnikai hardvert viszonylag olcsón meg lehet venni. Az igazi gond az, hogy jelenleg nincs olyan szoftver, amely tudná a humán biológia vagy akár csupán a biokémia vezérlő törvényeit, és ezeket az alaptörvényeket használó modellezést valósítana meg. Éppen ezért a cégek nem is költenek túl sokat a CADD-szoftvereszközökre. Ez jól látszik a számok tükrében. A molekulamodellezési és szimulációs szoftverek évi piaca jelenleg 323 millió dollár. Ennek a költségnek az aránya az összes kutatási költségen belül kb. 0,7 %. Ez az arány talán nem véletlenül emlékeztet a CADD-al tervezett hatóanyagok összforgalomhoz viszonyított alacsony arányára. Az is igaz viszont, hogy a CADD-szoftverek forgalmának volumene évi 30 %-kal növekszik, vagyis gyorsabban, mint a kutatási költségek egyébként is gyors növekedése. A legnagyobb 40 gyógyszeripari vállalatnak már a fele vásárolt egy vagy több molekulamodellező és szimulációs szoftvercsomagot. A 20 legnagyobb felfedezésorientált cégnél pedig ez az arány már 85 %. A CADD tehát az originális gyógyszeripari kutatás igen elterjedt, de nem csodatevő, és jelenleg még nem túl produktív eszközévé vált.

A voluntarizmus zsákutcája

Ha a molekulamodellezésbe, valószínűleg okkal, nem fektetnek sokat a gyógyszergyárak, akkor mi az a metodika, amelyre az új és hatékony gyógyszerek kifejlesztését alapozni kívánják? Jelenleg a nagy átbocsátóképességű tesztelés (High Throughput Screening - HTS) tűnik megoldásnak, ami a kutatási költségek lényegesen nagyobb szeletét használja fel, mint a CADD-módszerek alkalmazása. A jelenleg már elsősorban robotizált párhuzamos szintéziseket használó kombinatorikus kémia (Combinatorial Chemistry - CC) által előállított vegyületek százezreinek, millióinak gyors, robotizált biológiai vizsgálata az első találatokig diverz, majd a további vizsgálatokra kiválasztott, az ún. "lead" molekula optimalizálás során kisebb méretű, de az adott terápiás területre fókuszált vegyületkönyvtárak segítségével az utóbbi évtized rutineljárásává vált a felfedezésorientált gyógyszeriparban. Tíz év elteltével már meg lehet vonni a CC és HTS módszer kezdeti eredményességének a mérlegét. Az eredmény lesújtó. Az egyre nagyobb és nagyobb vegyületszámokkal való hazárd pókerjáték úgy tűnik, kezdetben kudarcot eredményezett (Lahana, 2000). Mint az élet sok területén, itt is bebizonyosodott, hogy egy bizonyos határon túl a több már nem biztos, hogy jobb, különösen akkor, ha hiányzik belőle az igazi innováció, a konstruktív emberi elme. A szisztematikus HTS-szűrésen fennakadt találatokból kifejlesztve jelenleg 62 gyógyszerjelölt van klinikai vizsgálat alatt, de még egy sincs forgalomban, ehhez ugyanis még nem telt el elég idő. Mindenesetre 62 új molekula a klinikai vizsgálatokon önmagában nézve impozáns eredménynek tűnhet, de ha figyelembe vesszük azt, hogy jelenleg a világon kb. 1 800 hatóanyag klinikai vizsgálatai folynak több mint 600 hatásterületen, akkor a szisztematikus HTS módszerrel való gyógyszerfejlesztés hatékonysága nem tűnik lényegesen jobbnak, mint a CADD módszereké. A nagy gyógyszeripari vállalatok néhány HTS-labort már bezártak, néhányat összevontak, de az egyértelmű, hogy a kutatási stratégiájukban a HTS módszernek továbbra is alapvető szerepet szánnak. Mi lehet ennek az oka? Valószínűleg az, hogy a robotizált HTS technikának jelenleg még nincs olyan alternatívája, amely megbirkózhatna a gyógyszer terápiás területek számának várhatóan robbanásszerű növekedésével. A jelenleg piacon lévő gyógyszerek csupán kb. 500 terápiás területtel, céllal kapcsolatosak. Ez a szám a genomika fejlődésével néhány éven belül elérheti a 10 000-et is miután egyre több és több emberi gén funkcióját tisztázzák. Ezidáig a humán genom program a 35 000 emberi génből 10 000 funkcióját ismerte fel vagy azonosította. Ezek között 560 G-protein csatolt receptort, 80-90 kation-csatornát, 130 ioncsatornát, 60 hormon receptort, 3000 transzkripciós faktort, 580 protein kinázt, 120 foszfatázt és több mint 200 proteáz enzimet azonosított. Ezek mindegyike egy-egy lehetséges célpont a gyógyszeriparnak. Ilyen hatalmas mennyiségű biológiai célponthoz rendre megtalálni a pontos validált célmolekulákat jelenlegi, ehhez még felületes biológiai tudásunk alapján, a HTS módszerek nélkül alig elképzelhető.

A genomika, a proteomika és az újabb és újabb -omikák, valamint az egyre bőségesebben áradó HTS eredmények az információtechnológia (IT) egyre kiterjedtebb alkalmazását követelik meg a gyógyszeripartól. Az IT-szoftverekre költött pénz már jelenleg is majd két és félszerese a CADD eszközökre fordított javaknak, és dinamikusabban növekszik, mint az utóbbi. Tágabb értelemben az információtechnológia is a gyógyszertervezés számítógépes támogatását jelenti. Az utóbbi időben a két szakterület konvergenciája is megfigyelhető. Az intelligens adatértelmezés és adatkeresés segít abban, hogy a rohamosan növekvő adathalmok ne váljanak túl hamar információs meddőhányókká. Ma már kaphatók olyan szoftverek, amelyek a szerkezet-hatás összefüggések automatikus felismerését és megjelenítését teszik lehetővé igen nagy kémiai szerkezet és biológiai hatás adathalmazokban keresgélve.

Jobb előre gondolkozni!

Az 1800, jelenleg emberekben vizsgált hatóanyag több mint kétharmada valószínűleg meg fog bukni a klinikai vizsgálatokon, a csillagos egekben tartva ezzel a gyógyszeripar kutatási költségeit. Túl sok a nem megfelelő hatóanyag-kandidátus. Nemcsak a gyógyszerjelöltek tökéletlenek. A farmakológusok előtt közismert, hogy a forgalomban lévő gyógyszerek nagy átlagban csak az emberek 60 %-ánál mutatnak észrevehetően kedvező hatást. A többi 40 %-nál jobb esetben nem tapasztalható hatás, de nem ritka súlyos mellékhatások jelentkezése sem, még akkor is, ha nincs kedvező effektus. Ez a rossz statisztika az egyik fontos oka annak, hogy a világon mindenütt rendkívüli módon megszigorodott az új gyógyszerek engedélyezésének eljárása. A nem kielégítő hatás vagy egy káros és súlyos mellékhatás fellépte a klinikai vizsgálatok során azonban csak 20-30 %-ban oka a gyógyszerjelölt elbukásának. A bukás oka legtöbbször a vegyületek nem megfelelő ADMET-profiljában rejlik (Absorption, Dispersion, Metabolism, Excretion and Toxicity, ADMET a gyógyszer(jelölt)eknek a szervezetben való felszívódását, eloszlását, metabolizmusát, kiürülését és toxicitását jellemző adatok összessége). A gyógyszerjelölt vagy nem szívódik fel a szervezetben a kívánt mértékben, vagy ha felszívódik, akkor a szervezet gyorsan metabolizálja azt védekező, méregtelenítő enzimreakciói segítségével, vagy ha mindezeket sikeresen túléli a molekula, akkor esetleg nem tud eljutni a kívánt szervbe, vagy nem tud ott feldúsulni a kellő mértékben. Tegyük fel, hogy mindezen nehézségek után a gyógyszermolekulák a kellő koncentrációban jelen vannak a terápiásan megcélzott helyen, és ott ki tudják fejteni kedvező hatásukat. Ezek után nem túl gyorsan, de nyomtalanul ki is kell ürülniük a szervezetből, és nem dúsulhatnak fel tartósan egyetlen szervben sem. Ráadásul, az előbb leírt folyamat egyik fázisában sem mutathatnak toxikus hatást. Az kész pénzügyi csapás, ha a gyógyszerjelölt molekuláról a klinikai vizsgálatok során derül ki a nem megfelelő ADMET-tulajdonság. Ekkorra ugyanis már dollármilliók tucatjait fektették be a molekula kifejlesztésébe, amely befektetés egy pillanat alatt füstté vált. A gyógyszergyártó csak egy drágán megszerzett tapasztalattal lesz gazdagabb, miszerint nem szabadna rossz ADMET profilú molekulát még csak szintetizálni sem, nemhogy klinikai vizsgálatra engedni. Mindezen keserű tapasztalatok vezettek a "fail early fail cheap" elv megfogalmazásához és a korai in-silico vagy in vitro ADMET-szűrés fontosságának felismeréséhez. Ez az a pont, ahol a gyógyszeripari kutatás két szépreményű, de gyengén szereplő játékosa, a CADD és a HTS kombinációjából megszülethet a gyógyszerkutatás új, ígéretes lehetősége: az ADMET-fókuszált HTS. A nem megfelelő ADMET tulajdonságú molekulákat a lehető legkorábban fel kell ismerni, és nem érdemes semmiféle biológiai tesztelésnek alávetni. Ha az ADMET-előszűrésnek köszönhetően csupán feleannyi gyógyszermolekula bukik el a klinikai tesztelés fázisában rossz ADMET-paraméterei miatt, akkor is 20-30 %-kal, vagyis dollár százmilliókkal csökkenhetnek az új gyógyszerek kifejlesztésének a költségei.

Egy konkrét példa

Az alábbiakban egy ADMET-jellemző, a biológiai hasznosíthatóság példáján mutatjuk be egy statisztikus QSAR módszer tulajdonságait és az ADMET-előszűrésben való alkalmazhatóságát. A biológiai hasznosíthatóság a szájon át szedett gyógyszerek hatóanyagának fontos adata. Azt mutatja meg, hogy a szájon át beszedett gyógyszer vérszint-idő integrálja hány százaléka annak a vérszint-idő integrálnak, amelyet azonos mennyiségű hatóanyag intravénás befecskendezése után mérnek. Ha a biológiai hasznosíthatóság 20 % alatt van, az már egyértelműen gyenge érték, és arra utal, hogy a gyógyszer nehezen szívódik fel a belekből és/vagy gyorsan metabolizálódik a májban. A várhatóan alacsony biológiai hasznosíthatóságú vegyületek számításokkal történő előrejelzése fontos döntéstámogató eszköz lehet a molekulák közti válogatásnál. A számításokhoz 274 gyógyszermolekula embereken mért biológiai hasznosíthatósági adatait használtuk (Goodman & Gilman, 1996). Az adatok átlagos bizonytalansága kb. 15 % volt. A legtöbb mért értéket ugyanis jellemzően úgy adták meg, hogy például 40-60 %. A biológiai hasznosíthatóságnak az értéktartományok közepét vettük. Az olyan adatoknál, mint például a >90 % vagy a <5 %, a 100 %-ot vagy a 0 %-ot vettük az értéktartomány másik szélének. Minden molekulára több mint 1700 deszkriptort számítottunk ki. A molekulák 3D szerkezetét molekulamechanikával határoztuk meg. Ezek után véletlenszerűen kiválasztottunk egy 200 molekulából álló munkahalmazt, és a maradék 74 molekulán pedig a számított QSAR modellt ellenőriztük. A munkahalmazt tovább feleztük modellkészítésre és becslésre használt molekulákra. Ezt a felosztást több különböző véletlen módon, ez esetben 16-szor megismételtük. Ezt követően genetikus algoritmussal kiválogattuk az 1700 deszkriptorból azt a néhányat - végül is 18-at -, amelyeknél egy mesterséges ideghálómodell a legjobb átlagos becslést adta a munkahalmaz felosztásaira. Majd az ellenőrzésre félretett 74 molekula adataival verifikáltuk ezt a modellt. A számításokat természetesen teljesen automatikusan, egy program segítségével végeztük el. Az ellenőrzés eredményét az 1. ábrán mutatjuk be, ahol az x tengelyen a kísérleti értékeket, az y tengelyen pedig az adott molekulákra számolt értékeket ábrázolta a program. Jól látható, hogy habár a becslések pontossága nem jobb, mint a modell készítésére használt adatok bizonytalansága, mégis a modell határozottan érzékeli és követi a mért biológiai hasznosíthatóság értékeit. Például a 25 %-nál kisebb biológiai hasznosíthatóságú molekulák 84 %-át jól ismerte fel a program. Érdekes lehet azt is megvizsgálni, hogy például a modell legfontosabb deszkriptora milyen összefüggésben van a kísérleti adatokkal. Ez a deszkriptor azon szénatomoknak a száma, amelyhez közvetlenül egy oxigénatom kapcsolódik, és a szomszédos szénatomhoz pedig legalább két heteroatom, azaz nem szén, és nem hidrogénatomok. A 2. ábrán látható, hogy az ilyen, heteroatom kapcsolatokkal telezsúfolt szénatom párok számának növekedése a molekulákban a várható biológiai hasznosíthatóság maximumának egyértelmű csökkenését jelenti. Ilyen és ehhez hasonló összefüggések felismerése alapján számolja ki a mesterséges ideghálózat a biológiai hasznosíthatóságot az új molekulák esetében.

1. ábra • A biológiai hasznosíthatóság QSAR modelljének ellenőrzése

2. ábra • A biológiai hasznosíthatóság QSAR modellje; egyik deszkriptora (x) és a mért adatok (y) összefüggése

Perspektívák

A nehézségek ellenére a számítógépes molekulatervezés a csak reprodukálható eredményekre vevő és haszonorientált ipari környezetben is sikerre van ítélve. A gyógyszerkémikusok és biológusok számára a számítógépes elemzés nélkül ma már a mérési adatok puszta áttekintése is lehetetlen. Mindenképpen elemi igény lesz az emberi genom programból származó adatok szerint kb. 200 000-féle humán fehérje térszerkezetének megbízható számítására, hiszen a kísérleti módszereink jelenlegi teljesítőképességének sokszorosára és mondjuk újabb 100 évre lenne szükség a tisztán mérések alapján történő szerkezetmeghatározásokra. A nem hatékony vagy olcsón helyettesíthető elméleti vagy kísérleti módszereknek távozniuk kell az iparból. A nagy gyógyszergyárak például kivétel nélkül bezárták, vagy pedig kis molekulák vizsgálatára állították át peptidszerkezet-meghatározásokkal foglalkozó NMR laboratóriumaikat, hiszen meg ipari környezetben nem engedhető, hogy akár fél tucat kutató egyetlen fehérje szerkezetének meghatározásával hónapokig foglalkozzon. Viszont a CADD alapgondolatát, miszerint ha egy receptor különbséget tud tenni a molekulák között, akkor azt egy matematikai eljárás is meg tudja tenni, a hivatalos szervek is kezdik felismerni. A gyógyszeriparban mértékadó amerikai szövetségi Élelmiszer- és Gyógyszerügyi Hivatal (Food and Drug Administration - FDA) 5 éven belül a CADD módszerek és a matematikai modellezések standardizálását és a standard eljárások eredményeinek figyelembevételét tervezi a gyógyszer-engedélyezés folyamatában.

Ha a profit növelésének érdekében a jelenlegieknél jóval pontosabban becslő CADD számításokat vagy ADMET modelleket szeretnénk létrehozni, akkor sokkal pontosabb biológiai mérési adatokra lesz szükségünk, mint a mostaniak. A számítógépes molekulatervezés céljára inkább kevesebb, de pontosabb farmakológiai mérést kell majd végezni, releváns és jól reprodukálható kísérleti körülmények között. A HTS biológiai adatok most még messze nem felelnek meg ezeknek a követelményeknek. A gyógyszeripar azonban, éppen a humánbiológiai alapfolyamatok matematikai modellezhetőségének hiánya miatt, alaposan elkötelezte magát a HTS metodológiával, és egyre nagyobb és nagyobb szalmakazlakban keresik a tűt. A HTS biológiai tesztek száma évente már milliárdokra rúg. Azonban ilyen nagyszámú vizsgálat esetén még a viszonylag bizonytalan eredményű QSAR statisztikai módszerek is segíthetnek a vegyülethalmazok praktikus méretűre szabásában, valamint abban, hogy a sok-sok vegyületcsalád közül elsősorban azokat válasszuk ki, amelyekben nagy valószínűséggel egy igazán hatékony és eredményesen fejleszthető gyógyszermolekula található.

Kulcsszavak: biológiai hasznosíthatóság, gyógyszeripar, dokkolás, gyógyszertervezés, modellezés, számítógép, szerkezet-hatás összefüggés.

IRODALOM

Dorsay B. D. et al. (1994). J. Med. Chem. 37, 3443-51

Duncia J. V. et al. (1992). Med. Res. Rev. 12, 149-91

Glen R. C. et al. (1995). J. Med. Chem. 38, 3566-80

Greer J. et al. (1994). J. Med. Chem. 37, 1035-54

Goodman & Gilman's The Pharmacological Basis of Therapeutics, 9th ed., (1996) McGraw Hill, N.Y.

Kaldor S. V. et al. (1997). J. Med. Chem. 40, 3979-85

Kubinyi H. ed. (1993) 3D QSAR in Drug Design - Vol . 1. ESCOM. Leiden, p. 760

Kubinyi H., Folkers G., Martin Y. C. eds. (1998) 3D QSAR in Drug Design - Vol . 2. Kluwer/ESCOM. Dordrecht, p. 416

Kubinyi H., Folkers G., Martin Y. C. eds. (1999) 3D QSAR in Drug Design - Vol. 3. Kluwer/ESCOM. Dordrecht, p. 352

Kawakai Y. et al. (1996). Bioorg. Med. Chem. 4, 1429-1446

Lahana R. (2000) Drug Discovery Today 4, 447-448

Az üzleti, ipari és technológiai adatok forrásai

Am. Chem. Soc. publ. MODERN DRUG DISCOVERY, 2000 october - 2002 march. http://pubs.acs.org/mdd

Brimblecome R. ed. DRUG DISCOVERY WORLD, 2001 spring - 2002 summer. www.ddw-online.com

Karl Endel ed. PHARMABUSINESS, 2001 jan/feb - 2002 may., www.pharmabusiness.com

Wilkie T. ed. SCIENTIFIC COMPUTING WORLD, 2000 october/november - 2002 march/april. www.scientific-computing.com


<-- Vissza az 2002/zzz szám tartalomjegyzékére