Информация

Може ли нежеланата ДНК да се използва като машина на Тюринг по природа?

Може ли нежеланата ДНК да се използва като машина на Тюринг по природа?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

По какви начини е изследвана ДНК, за да се види дали има "програмируем" аспект в нея?

Дали природата е създала нещо, наподобяващо машина на Тюринг в клетката, използвайки може би „нежеланата ДНК“ като свой код? Очаквам, че пътят на природата вероятно ще бъде много заобиколен и не компактен.

ЗАБЕЛЕЖКА: Не питам за изграждане на ДНК компютри, тъй като този въпрос наскоро беше изкривен.


Може би този въпрос е дали регионите между гените, понякога известни като „нежелана ДНК“, имат някаква функция.

В човешкия геном от ~5 милиарда бази има нещо като 20-30 000 гена, които заемат може би 10 милиони базови двойки, в зависимост от това как ги преброите. 1% от цялата човешка ДНК е общата цифра.

Понякога го питат, сякаш биолозите обикновено смятат, че няма никаква полза, но всъщност това е изследвана тема и малцина смятат, че изобщо няма еволюционна или биологична функция.

Някои от най-честите употреби на интергенна ДНК при еукариоти (бактериите са съвсем различна тема с много различни отговори.

  • Регулация на транскрипцията

Извън кодиращите последователности на гена може да има широк набор от места на свързване за протеини, които регулират гена. В тази статия на Фигура 1 прочутата регулаторна последователност на ENDO16 може да се види на Фигура 1. Както можете да видите за almoat 2000 bp, има множество места на свързване за много видове промотори и инхибиторни фактори, както и фактори, които могат да свържат ген по различни начини.

Доколкото си спомням, ENDO16 се включва само за кратък период от развитието на морския таралеж и затова е много строго контролиран, което означава, че има много регулаторни елементи преди него, контролиращи транскрипцията. Това е един от най-изчерпателно проучените гени някога и вярват, че имат по-голямата част от него. Други човешки гени, които съм виждал при разглеждане на медицинска литература, виждат, че 20 kb са необходими за възпроизвеждане на регулацията на ген. Все пак всичко това може в най-добрия случай само да утрои количеството активно участваща ДНК.

  • Центромери и теломери Физиологията на хромозомите има големи области, тъй като Дениз споменава, че са необходими за клетъчното възпроизвеждане и за развитие. При животните (като хората) регионите са лишени от транскрибирани гени и може да са 10-15% от дължината на генома (гледам това от UCSC геномния браузър на chr21 - при някои организми като дрожди центромерите могат да бъдат само няколко сто базови двойки. Така че така или иначе вече стигаме до някъде!

  • Нетранслирани гени. Има много парчета ДНК, които могат да бъдат копирани в РНК и след това да не функционират като шаблони за протеини. някои хора казват, че има много от тези неща. Типичното мнение е, че са известни няколко хиляди от тези видове животни, а хората в момента се смята, че имат около 1500 от тях. Малка промяна в броя на гените, но въпреки това те са налице.

  • Места на свързване и организация на хроматин Въпреки че центромерите са места, където хроматинът се свързва, няколко семейства протеини, които свързват ДНК и ги увиват в организирани навита намотки, за които се смята, че са като ролки от телефонен проводник, за да образуват нуклеозомата, която прави хромозомите да изглеждат като малки пръчици. виждате в учебниците. Хроматинът може да намотава почти всякакъв вид ДНК, но изглежда има предпочитание към региони, които са в краищата на гените. Те могат да бъдат модифицирани от ензими (ацилирани, метилирани), за да модулират афинитета им към някои класове ДНК последователност. Това е гореща тема за изследване. Способността на РНК полимеразата да намери транскрибиране на ген не е добра, ако се навива върху хроматина и въпреки че не е точно свързване като транскрипционен фактор, свързването и регулирането на хроматина трябва да бъдат силно повлияни от промените в разстоянието между гените и ДНК последователностите, които обграждат ген за хиляди базови двойки, което е една от основните разлики между видовете.

От всички биологични системи (поне за които знам) тази представлява най-обемната ДНК последователност и вероятно е толкова свързана с разликата между различните видове, колкото транскрипционни фактори и почти сигурно е по-стара система за генна регулация, ако мислите за то.

  • Вариациите на броя на копията и повтарящите се региони са само странична бележка, но малки и много дълги повтарящи се последователности могат да се появят в междугенните региони, както и вътре в генната граница, за да се отчетат някои от разликите между индивидите. те могат да бъдат доста къси или доста дълги.

Е, надявам се това да помогне?


Зависи какво имаш предвид под "некодиране".

В теломерите и центромерите има структурни елементи - въпреки че ДНК там не кодира протеини, тя допринася за триизмерната структура на хромозомата.

"Некодираща" ДНК може също да действа като свързващ субстрат за много протеини: транскрипционни фактори, подобрители, хистонови протеини; и по този начин контролират регулирането непряко чрез тези посредници.

Промоторните региони нагоре от транскрибираните/транслирани региони са комбинаторните контролни превключватели/циферблати на нашия геном и имат огромно регулаторно значение.

Некодиращата ДНК също действа като репертоари от мобилни ДНК елементи, които позволяват бърза еволюция / "пластичност" чрез копиране и поставяне на екзони наоколо (L1 трансдукции) или чрез копиране в кодиращи региони и прекъсването им.

И накрая, те могат да действат като пясъчна кутия на еволюцията: некодиращите региони, които не са генетично свързани с функционалните региони, е много вероятно да не страдат от пречистваща селекция, така че те могат да действат като шаблони за произволна еволюция - където по-голямата част от мутациите няма да имат някакво положително или отрицателно въздействие. Това позволява изследване на чисто нови комбинации, които след това могат да се превърнат в нови екзони / miRNA / регулаторни региони или да бъдат разместени в други региони, за да се даде възможност за нова функционалност.


Под програмируеми предполагам, че имате предвид, че съдържа информация или може да бъде променен в отговор на някакъв вход или стимул. Отговорът е "не" и за двете. Е, някак си.

Некодиращата ДНК съдържа ли информация? По дефиниция не. Вероятно има много региони на генома, които изглежда нямат информация, едва по-късно се установява, че съдържат интрони, регулаторни елементи като подобрители, гранични елементи, MAR/SAR, насочващи сайтове и т.н. Дори функционални тестове (като премахване на регион) може да не разкрие нищо, защото ефектите могат да бъдат незначителни или очевидни само при специални условия. Но може да се каже, че ако премахнете регион и той има ефект върху организма, тогава това всъщност не е некодираща ДНК, просто не сте виждали кодирането преди това.

Що се отнася до последното, може ли да се промени, отговорът отново е „не“ или поне „очевидно не“. Интергенните региони (тези участъци от ДНК, които не съдържат очевидни или характеризирани транскрибирани региони или техните контролни елементи) са много стабилни между организмите и дори между видовете. Те изглежда имат очакван процент на мутация, тъй като нямат информация и по този начин са свободни да мутират бавно, без да бъдат пометени. Няма доказателства (доколкото знам) някой регион от генома да е бил целенасочено променен, с изключение на шепа специфични гени, чиято регулация се контролира чрез изрязване на ДНК или нещо подобно.

Може би пропускам вашия въпрос, тъй като съм биолог и всъщност не знам какво е „машина на Тюринг“. Ако съм разбрал погрешно, моля, поясни.


Много се учудвам, че никой не споменава областта на ДНК-изчисленията. Това е доказано от Леонард Адлман и Ричард Липтън, че можете да изчислите с ДНК молекули.

В статията на Адлеман те представят експеримент за решаване на екземпляр от проблема с пътуващия-продавач. Тъй като този проблем е в NP, може да се каже, че ДНК е завършена по Тюринг.

Статия на Адлеман

За по-дълбоко разбиране вж


Природата се е справила доста добре в темата за формалните изчисления. Толкова много, че все още се опитваме да поддържаме темпото му.

Що се отнася до въпроса ви, това зависи от вашата дефиниция за "некодираща ДНК".

Като цяло ДНК заедно с машините, отговарящи за поддръжката му е Тюринг-пълен в няколко значения. Обърнете внимание например на съществуването на мобилни генетични елементи: някои от тях са "подпрограми", кодиращи обратни транскриптази, които от своя страна са в състояние да възпроизвеждат оригиналната програма. Трябва да отбележа, че за да направите това с пълен формализъм по Тюринг като ламбда-изчислението, е, трябва да направите доста дълга и сложна програма: http://crpit.com/confpapers/CRPITV26Larkin.pdf. А ламбда изчислението е "по-лесно" от голите машини на Тюринг, което означава, че можете да пишете по-кратки програми, отколкото с машини на Тюринг, за да правите същото. И така, моят (някак си подозрителен) аргумент е, че всяка информационна машина в реалния свят, способна да се самовъзпроизвежда, е с голяма вероятност еквивалентна на машината на Тюринг.

Просто се случва, че основната характеристика на мобилните генетични елементи е да осигурят оцеляването му, така че вероятно това е причината да не открием фрагмент от ДНК, способен да направи нещо толкова интересно като изчисляването на квадратен корен.

Ако имате предвид частта от ДНК, която не може да направи нищо, добре, за да говорим за машините на Тюринг и изчисленията, имате нужда от начин, по който някои „данни“ могат да бъдат „интерпретирани“ като програма. Напълно инертно парче ДНК не изпълнява тази роля по дефиниция.


Позволете ми да отговоря на въпроса ви, като го разделя на две части:

Може ли ДНК да се използва като програмируема среда (=лента) за машината на Тюринг?

Отговорът е ДА.

Като се започне от документа за разбиване на Shapiro et al. в Nature, последвано от друга страхотна статия на Паркър, има много научни публикации за това как да се използва ДНК за изчисления. За съжаление, тези открития все още не са приложими за класическите изчисления и ДНК компютрите едва ли ще заменят нормалните в близко бъдеще.

Може ли нежелана ДНК да работи като машина на Тюринг?

В компютърните науки има известен принцип, наречен "Junk In, Junk Out". Същото и в случая с ДНК - има начин да се използва нежелана ДНК за изчисления, но резултатът от изчисленията също ще бъде най-вече боклук: стига да не знаем за какво е тази ДНК, а това не изглежда да работи като машина на Тюринг самостоятелно, едва ли е възможно да се получи нещо разумно, като се пусне тази ДНК на машина в Торино...


Нежеланата ДНК може да е наистина, наистина полезна за биокомпютрите

Д-р Хърбърт пита какво ще стане, ако геномът ни беше далеч по-умен, отколкото всички вярваха досега? Ами ако в многобройните ДНК повтарящи се елементи положат основата за изграждането на нов тип биокомпютър? Този подход би позволил изчисления, извършвани със самообновяващ се wetware, а не със студен хардуер, отваряйки вратата към логическите вериги, базирани на ДНК, която превключва от едно състояние в друго, аналогично на начина, по който силицият се включва и изключва.

Как може да работи този вид ДНК компютър? Прости повторения се наричат ​​така, защото ДНК последователността се повтаря отново и отново няколко пъти. Повторенията всъщност са чудесни за изграждане на ДНК структури с полезни свойства. Вместо ежедневната B-ДНК, описана от Уотсън и Крик, повторенията на определени ДНК последователности могат да се трансформират в някои доста екзотични 3D структури с по-висока енергия. Те могат да образуват леви дуплекси, триверижни триплекси и четириверижни четириплекси. Различните ДНК структури променят начина, по който информацията се чете от ДНК, за да се направи РНК.

Тези повтарящи се последователности, които са в състояние да превключват от една структура на ДНК към друга, се наричат ​​флипони. Колективно д-р Хърбърт нарича тези флипони и свързаните с тях функционалности като fliponware. Fliponware поставя основата за клетка, за да направи правилните инструменти за wetware и да стартира правилната генетична програма, за да свърши работата. Той позволява сглобяването на генни части в различни РНК-базирани програми, за да може клетката да преодолее предизвикателствата от околната среда.

Д-р Хърбърт дава примери за това как флипоните могат да се използват за създаване на генетични програми, като описва начините, по които те могат да бъдат свързани към логическите порти, които са необходими на компютрите, за да функционират. Логическите порти flipon могат да изпълняват операции „И“ или „НЕ“. Много от тях могат да бъдат комбинирани за извършване на булевите операции, необходими за универсален компютър, както е описано за първи път от Тюринг. Използването им в генома за логически операции наподобява как работят машините на Тюринг, но вместо лента на Тюринг, клетката използва РНК за запис на резултатите. Серията от стъпки за обработка решава дали РНК съобщението е стабилно или не и генетичната програма да се изпълни.

Много от новите РНК сглобки се изхвърлят, без изобщо да бъдат използвани – може да не са необходими или сглобяването им е дефектно (еквивалентно на ЛОЖЕН резултат от машина на Тюринг). Тези съобщения, които продължават, се превръщат в кодонов софтуер на клетката (логично същото като TRUE резултат от машина на Тюринг). Резултатът от кодоновия софтуер след това определя биологията на клетката чрез влажния софтуер, който ръководи производството на.

Тази форма на изчисление се различава от описаните по-рано ДНК компютри, изградени без флипони. Тези други устройства зависят от това дали двойки ДНК последователности съвпадат или не. Ако го направят, съвпаденията позволяват следващата стъпка на изчисление. Компютрите Flipon се различават по много начини от тези, използващи съвпадение на ДНК. Първо, някои флипони се превключват много бързо (за милисекунди), защото всичко, което трябва да направят, е да променят една 3D структура в друга, без да е необходимо да търсят съвпадаща ДНК, с която да се сдвоят. Включването или изключването на flipon е възможно по много различни начини. Например, само разтягането на ДНК може да доведе до преобразуване на флипоните или те могат да се обърнат поради промяна в температурата или вариации в концентрацията на сол.

Комбинацията от fliponware, wetware и codonware е аналогична на програмния код, машинния език и хардуера в силициев компютър. Всеки от тези комплекти биоуред има памет, която позволява ученето. Те използват корекция на грешки, за да предотвратят лоши резултати. Докато флипоните се правят с прости последователности, codonware се прави от сложни миксове от последователности. Информацията предоставя на клетката много подробна информация за мокрия софтуер, който да направи. С прости думи, fliponware инструктира кои инструменти да се използват за конкретна работа, codonware казва как да се направят инструментите, а wetware върши работата.

Д-р Хърбърт добавя: "Очаквам, че скоро ще има много вълнуващи и полезни приложения за fliponware. Простите последователности не са боклук на баба и дядо ви - вместо това те са като практични правила, които опростяват живота, придобити в продължение на много години на еволюция."

Fliponware има няколко незабавни приложения:

    1. Терапевтични приложения (насочени лекарства към състояния на флипон, които позволяват рак или възпалителни заболявания)
    2. Биосензори (за откриване на промени в околната среда)
    3. Постоянна ДНК памет (използване на изключителната стабилност на квадруплексите след образуването им)
    4. Клетъчни превключватели (промяна на изхода в отговор на промяна на входа)
    5. Нови ДНК нано-архитектури (формираната 3D структура зависи от състоянието на флипона)

Относно InsideOutBio

InsideOutBio е стартираща компания, фокусирана върху разработването на следващо поколение терапевтични средства за рак за „запалване“ на тумори, които имунната система да убива чрез препрограмиране на собствени/не-себе пътища в раковите клетки. Д-р Хърбърт ръководи откритията в InsideOutBio. Работата му върху Z-ДНК е в основата на откриването на флипони. Тези изявления за InsideOutBio са в съответствие със законите за безопасно пристанище. Те са насочени към бъдещето и включват известни и неизвестни рискове и несигурности. Те не са гаранции за бъдещо представяне и не трябва да се разчита на тях.


Машини на Тюринг, клетки и защо са проектирани и двете

В предишен пост (вижте тук) написах: “необходимо, но недостатъчно условие за самовъзпроизвеждащ се автомат е да бъде компютър”. След това биологичните клетки се самовъзпроизвеждат поради тази причина работят като компютри. Но “компютър” е много общ термин (това означава устройство, което може да изчислява, изчислява, обработва информация, правила и инструкции). Компютърните науки изучават поредица от модели с нарастваща сложност, които заслужават името “компютър”. Може да е интересно да анализираме накратко тези модели и да открием на кои от тях клетки са по-подобни. В същото време се надявам, че моят анализ ще изясни повече казаното в тази публикация.

Серията от изчислителни архитектури преминава от абстрактните държавни машини до реалните компютри и сървъри, които използваме днес. Първият основен модел, който може да обработва инструкции, е машината с крайни състояния (FSM). Това е контролер, който получава входове и генерира изходи, приемайки последователно краен набор от различни вътрешни състояния. Много дейности в клетката могат да се конфигурират (като първо необработено приближение) като FSM процеси, тъй като те предполагат много различни състояния, докато обработват вход и изход. Входовете и изходите могат да бъдат каквото и да е нещо или събитие (като тригер сигнал за включване на ген, създаване на протеин и т.н.). Различните вътрешни състояния могат да бъдат свързани, да речем, какви гени са включени и какви са изключени в даден момент, или с различни фази от живота на клетката и т.н. от всички четворки предполага пълно познаване на този процес на молекулярно, химично и физическо ниво. Очевидно всичко това не означава, че клетъчната обработка не може да бъде моделирана с помощта на други езици за моделиране. Тъй като сложността на клетката включва няколко едновременни дейности, извършвани от множеството й разпределени подсистеми, тя също може да бъде описана по-добре от по-мощните формализми на пакета с мрежи на Петри, които наистина са изобретени, за да описват от химически процеси до всякакви реални. световен процес. Но за това, което има значение тук, не е нужно да влизаме в този аргумент сега, защото също като се имат предвид тези различни описателни формализми, заключенията няма да се променят.

Вторият абстрактен изчислителен модел е специализираната машина на Тюринг (TM), която представлява FSM (контролно устройство) с допълнителна възможност за четене и запис на памет. Алън Тюринг е замислил паметта под формата на лента, но тя може да бъде каквато и да е опора, способна да съхранява информация. Една версия на неговата машина имаше две ленти, едната за четене, а другата за четене/записване, но концептуално и от гледна точка на изчислителната мощност няма разлика. Всяка клетка от паметта може да съдържа символ (избран от ограничена азбука от символи). Паметта е домакин на входовете (считани за предно заредени) и изходите (които ще бъдат записани от FSM по време на изпълнението). Контролният блок съдържа програмата, която генерира изходите от входовете. ТМ може да изпълни само конкретна задача (описана в програмата на нейния FSM).

Тъй като клетката, освен да работи като FSM, може да чете и пише, може да се държи като TM. Всъщност в клетката ДНК-РНК символите (A, T, G, C, U) са азбуката. ДНК е молекулярната “лента”, която ДНК и РНК полимеразните машини могат да разчитат. ДНК само за четене ли е или може и за запис? Така наречената “централна догма” на молекулярната биология (подразбираща, че ДНК е само за четене) беше частично опровергана наскоро чрез откриване на някои явления (некодираща РНК, обратна транскриптаза, епигенетика и др.). Тези открития показват, че в известен смисъл ДНК също може да се записва, тогава информацията може да тече и в двете посоки. Въпреки това, ако ДНК не е била за запис, има много ситуации, в които контролният блок на клетката записва данни (например РНК транскрипция, ДНК дублиране). В идеалния случай бихме могли да конкатенираме всички тези изходни молекулярни последователности в дълга верига и по този начин клетката изглежда по-скоро TM с две ленти.

Третият изчислителен модел е универсалната машина на Тюринг (UTM). Това е по-мощна TM с FSM, която, благодарение на някои конкретни инструкции за стартиране, може да изпълнява всяка програма, съхранена в паметта. Тези програми са различни таблици с инструкции (специализиран TM съдържа само една таблица в своя контролен блок и като такъв може да изпълнява само една задача). Истинският UTM може потенциално да изработи какъвто и да е алгоритъм (теза на Чърч). Казвам “потенциално”, защото, разбира се, UTM може да изработи само алгоритмите, които наистина са инсталирани в паметта му. Неговата универсалност е потенциална. Една клетка не може да се счита правилно за UTM, тъй като нейната памет може да съдържа много различни кодове, всеки от които е специално предназначен за различна биологична задача, но е малко вероятно да може да изпълнява някакъв алгоритъм. Това, което се опитват да направят така наречените специалисти по ДНК-изчисление или “молекулярно програмиране”, е да използват клетъчните машини като UTM за решаване на научни проблеми, които нямат нищо общо с биологията, като го модифицират и в крайна сметка прибягват до някакво външно ръководство операции в лабораторията.

Четвъртият изчислителен модел е машината на фон Нойман. Това е UTM, базиран на регистри на запаметена програма, който може да въвежда и извежда от/към външния свят. По-специално универсалният саморепликатор на фон Нойман (вижте описанието му в посочената по-горе публикация) съдържа в паметта си определена програма за саморепликация и изходът може да бъде копие на самия себе си. Можем да кажем, че една клетка е подобна на саморепликатора на фон Нойман, но е малко вероятно клетката да е наистина универсална, защото не е UTM (виж по-горе) и не може да репликира каквото и да е нещо. Клетките обаче могат да изпълняват външен код: всъщност те могат да репликират вируси, т.е. “alien” ДНК инструкции (които не могат да се самореплицират сами), които паразитно заразяват клетката за самовъзпроизвеждане. Но свойството на универсалност е силно предположение и, доколкото знаем, клетките нямат такова свойство.

От гледна точка на интелигентния дизайн важното е да се знае дали дадено нещо е проектирано. Бихме могли да разгледаме ТМ и да попитаме дали тя може да възникне чрез неуправлявана еволюция, т.е. чрез стъпка по стъпка постепенен процес, движен само от случайност и необходимост. Независимо дали открием, че само ТМ не може да възникне чрез еволюция, тогава с по-голяма причина, като се има предвид, че клетката е нещо повече от ТМ и се самовъзпроизвежда, изводът за дизайна на клетката ще бъде ясен.

Сега нека видим защо ТМ не може да бъде продукт на еволюцията. За да опишем динамично ТМ по прост начин, можем да го мислим като машина, която преминава през последователност от преходи (таблицата на преходите). Всеки от тези преходи се състои от следните елементи: състоянието, в което се намира TM сега, прочетеният символ, символът, който трябва да бъде записан (в крайна сметка без запис), изместването на лентата и следващото състояние. Следователно, за да имаме функционираща TM, се нуждаем от набор, съставен от следните елементи: (1) таблица за преходи (2) азбука от символи (3) лента за съхранение на символи (4) способност за четене/запис (5) способност за движение по лентата. Лесно е да се види, че това множество е неприводимо сложно (IC). Без #1 TM не знае абсолютно нищо за това какво да прави. Без #2 машината се движи през лентата, но няма какво да чете или пише. Без #3 машината се опитва да чете и пише, но няма лента. Без #4 TM се движи по лентата, съдържаща символи, но машината нито чете, нито пише. Без #5 TM е фиксиран винаги върху една и съща начална точка на лентата и като следствие не прави нищо. Функционалният набор TM = <1,2,3,4,5> е IC, тъй като неговите пет функции са необходими само от самото начало. Изводът на IC е силен, в смисъл, че IC отрича еволюцията както в нейния направляван, така и в неуправляван смисъл: просто една IC система няма функциониращи предшественици.

Сега да преминем към клетъчното царство. За да разберем, че клетката се държи като ТМ, достатъчно е да разгледаме една от нейните ТМ дейности, например процеса на РНК транскрипция. Ако разгледаме транскрипцията на серия от гени, операциите, които се извършват последователно, са подобни на таблицата за преход. За да опростите описанието, разгледайте четенето на цял ген като блок вместо поетапното отчитане от единичен нуклеотид. По този начин нищо съществено не се променя. Системата стартира от първоначално състояние и заповядва на РНК-полимеразата да се позиционира при първия генен промотор на ДНК веригата и да прочете генната база по база. Извежда се свързаната РНК. РНК-полимеразата е насочена да се премести в друга позиция. Вътрешното състояние се променя, други стъпки за четене на ДНК и запис на РНК се извършват, достига се ново състояние и т.н. Разбира се, има много други ТМ клетъчни процеси, дори по-сложни от синтеза на РНК. Следната снимка показва TM с две ленти (числата представляват функциите на IC според горния списък):

Струва ми се, че тези кратки бележки трябва да са достатъчни, за да обяснят, че някои процеси в клетките работят като ТМ. Концепцията на теорията на ID за нередуцируема сложност ни казва, че такива клетъчни TM системи не се генерират от еволюцията. Може да има други възможни съображения, от различни гледни точки, които ни водят до едно и също заключение за идентификатор за TMs/клетки. В крайна сметка те ще бъдат обект на други публикации в бъдеще.

Това, което съм написал в този блог, не е нищо ново, защото е имплицитно в действителните научни изследвания. Всъщност много специалисти по биоинформатика и ДНК-компютри, от първите идеи и експерименти на Леонард Адлман през 1994 г., признаха, че клетките показват поведение на ТМ и много от тях описаха клетъчната обработка на ТМ с много по-технически подробности от мен тук (за ДНК -компютърни вижте например тук, тук, тук).

За съжаление много малко от тези учени (или никой) не признават логичното следствие от своите изследвания: независимо дали ТМ не са продукт на случайност и необходимост, тогава клетките също не са. Именно този вид непоследователност ме накара да мисля, че такава порицана истина трябва да бъде подчертана по някакъв начин тук.


Скрипт за кода на живота

Машините и клетките на Тюринг имат много общо, твърди Сидни Бренър.

Биологичните изследвания са в криза и в работата на Алън Тюринг има какво да ни напътства. Технологията ни дава инструментите за анализиране на организми във всички мащаби, но ние се давим в море от данни и жадуваме за някаква теоретична рамка, с която да ги разберем. Въпреки че мнозина вярват, че „повече е по-добре“, историята ни казва, че „най-малкото е най-доброто“. Нуждаем се от теория и твърдо разбиране на естеството на обектите, които изучаваме, за да предвидим останалото.

Три от статиите на Тюринг са свързани с биологията. През 1952 г. „Химичната основа на морфогенезата“ 1 изследва хипотезата, че моделите се генерират в растенията и животните от „химични вещества, наречени морфогени, които реагират заедно и се разпространяват през тъканта“. Използвайки диференциални уравнения, Тюринг излага как нестабилностите в хомогенна среда могат да доведат до вълнови модели, които могат да обяснят процеси като сегрегация на типовете тъкани в развиващия се ембрион.

И все пак биологичната подкрепа за идеята на Тюринг е незначителна. Предварително поръчаните модели, намерени в дрозофила развитието не отговарят на теорията за нестабилността, която доскоро можеше да описва само химически системи. Доказано е обаче, че моделирането на кожата следва по-широко тълкуване на термините на Тюринг 2, където се разглеждат сигналните пътища от клетка до клетка, а не отделни молекули. Йонните канали, постулирани от Алън Лойд Ходжкин и Андрю Хъксли 3 , също през 1952 г., бяха открити по-бързо от молекулярната биология.

Тюринг публикува друга статия, свързана с биологията, през 1950 г. „Изчислителна техника и интелигентност“ 4 въвежда теста на Тюринг като игра за имитация, в която външен следовател се опитва да направи разлика между изчислителна машина и човешко фолио чрез своите отговори на въпроси. Но тестът на Тюринг не казва дали машините, които съвпадат с хората, имат интелигентност, нито симулира мозъка. За това се нуждаем от теория за това как работи мозъкът.

Най-интересната връзка с биологията според мен е в най-важната статия на Тюринг: „За изчислими числа с приложение към Entscheidungsproblem' 5, публикуван през 1936 г., когато Тюринг е само на 24 години.

Изчислимите числа се дефинират като тези, чиито десетични числа се изчисляват с крайни средни. Тюринг представи това, което стана известно като машина на Тюринг, за да формализира изчисленията. Абстрактната машина е снабдена с лента, която сканира един квадрат наведнъж и може да записва, изтрива или пропуска символи. Скенерът може да промени механичното си състояние и може да „запомни“ преди това прочетени символи. По същество системата е набор от инструкции, написани на лентата, която описва машината. Тюринг също така дефинира универсална машина на Тюринг, която може да извършва всякакви изчисления, за които може да бъде написан набор от инструкции - това е произходът на цифровия компютър.

Идеите на Тюринг са пренесени по-нататък през 40-те години на миналия век от математика и инженер Джон фон Нойман, който замисля „конструктор“ машина, способна да сглоби друга според описание. Универсален конструктор със собствено описание би построил машина като себе си. За да изпълни задачата, универсалният конструктор трябва да копира описанието си и да вмъкне копието в машината за потомство. Фон Нойман отбеляза, че ако копирната машина направи грешки, тези „мутации“ ще осигурят наследствени промени в потомството.

Може би най-добрите примери за машините на Тюринг и фон Нойман се намират в биологията. Никъде другаде няма толкова сложни системи, в които всеки организъм съдържа вътрешно описание на себе си. Концепцията за гена като символно представяне на организма - кодов скрипт - е основна характеристика на живия свят и трябва да формира ядрото на биологичната теория.

Тюринг умира през 1954 г., една година след откриването на двойно-спиралната структура на ДНК от Джеймс Уотсън и Франсис Крик, но преди последвалата революция в биологията. Нито той, нито фон Нойман имаха пряк ефект върху молекулярната биология, но тяхната работа ни позволява да дисциплинираме мислите си за машини, както естествени, така и изкуствени.

Тюринг изобретява компютъра със съхранена програма, а фон Нойман показва, че описанието е отделно от универсалния конструктор. Това не е тривиално. Физикът Ервин Шрьодингер обърка програмата и конструктора в книгата си от 1944 г. Какво е живот?, в който вижда хромозомите като „план на архитекта и занаята на строителя в едно“. Това е грешно. Кодовият скрипт съдържа само описание на изпълнителната функция, а не самата функция.

Така уравненията на Ходжкин и Хъксли представят свойствата на нервния импулс като електрическа верига, но необходимите канали и помпи са конструирани от спецификациите в гените. Нашите проблеми са в разбирането на конструктора на машината и тук клетката е правилното ниво на абстракция 6 .

Биолозите задават само три въпроса на живия организъм: как работи? Как е построен? И как стана така? Те са проблеми, въплътени в класическите области на физиологията, ембриологията и еволюцията. И в основата на всичко са лентите, съдържащи описанията за изграждане на тези специални машини на Тюринг.


Опции за достъп

Получете пълен достъп до дневника за 1 година

Всички цени са НЕТНИ цени.
ДДС ще бъде добавен по-късно при плащането.
Изчисляването на данъка ще бъде финализирано по време на плащането.

Получете ограничен във времето или пълен достъп до статия в ReadCube.

Всички цени са НЕТНИ цени.


Изчислителни състояния за изчисления във времето

Не всички модели на изчисления са еднакво мощни, тоест не са еквивалентни по отношение на обхвата от изчисления, които могат да опишат. By this metric, combinatorial logic circuits are extremely weak, since the output of a circuit is purely a function of its current inputs (that is, there is no “memory”), and this severely restricts the range of computations that are possible with a single circuit. Clearly, there are models of computation more powerful than combinatorial logic, that is, models which can describe all computations that are possible with combinatorial logic circuits and more. In this regard, two extremely powerful models of computation, the Lambda calculus 54 and the Turing Machine 42 are particularly important. These two models are both equally powerful, but quite different in their formulation—the Lambda calculus is a model of functional computation, while the Turing Machine models stateful computation. Here we focus on stateful computation, as states enable functions that operate over time, such as memory, learning and adaptation.

The output of stateful computations depends not only on the current input, but also on the current state, which encodes information about previous inputs that are no longer present. Models of computation such as finite state machines (FSMs) (shown in Fig. 2) exceed the capabilities of combinatorial logic, and are extremely powerful models of computation—the central processing units of modern digital computers are built from sequential logic circuits, which are implementations of FSMs. Even so, they cannot describe all computations that are available to the Turing Machine model, since they have only a bounded number of states. Turing machines are similar to FSMs, but have an unbounded memory (commonly conceptualized as a tape), which endows them with an unbounded computational state space (number of distinct configurations). Consequently, Turing Machines can compute anything that any real computer can, and in fact, computer science starts from the notion that Turing Machines (TMs) demarcate what is (and is not) computable 42 . From a practical perspective, these considerations of the limits of computability might be of less conceptual value than the strategy that TMs employ to decouple the complexity of the machine from the number of states on which they can operate.

Cells could provide more than logic circuits. Computer science has developed models of computation that are far more powerful than combinatorial logic, such as finite-state machines or the Turing Machine. These models are more powerful in that they allow processing of a wider range of inputs into outputs, and in many more ways, than are admissible by combinatorial logic. Similarly, living systems have evolved a variety of computational processes to allow cells to process information. A simple model, used extensively as the basis for engineering combinatorial logic circuits in cells, is the standard representation of the central dogma (CD) of molecular biology. However, this model does not incorporate core cellular mechanisms such as metabolism, or processes such as evolution, which may provide possibilities for building more powerful, but as yet unknown, models

Modern digital computers, as with any real physical system 55 , lack the unbounded state space required for implementing a Turing Machine. However, their state space is so vast as to make them practically indistinguishable from implementations of Turing Machines (consider that even systems with an extremely modest 1 MB of storage have at least (2^<10^6 ! imes! 8>) states). It is therefore unlikely that cellular computing will outperform silicon purely on the basis of enabling more complex stateful computations. Nevertheless, synthetic biology has already engineered successful in vivo implementations of stateful computations 10,56,57 , and there also exists significant theoretical work linking stateful models of computation to biological implementations 58,59 . This work is undoubtedly of considerable importance for a broad range of synthetic biology applications, and since biological systems naturally engage in stateful computation 60,61,62 , statefulness or “memory” will likely be a key component in future engineered biocomputations of any significant complexity.


Will biologists become computer scientists?

The idea that living systems could be understood and described as information-processing systems has been around even before the first computers were built. From Alan Turing's considerable paper in 1936 to Erwin Schrödinger's work in 1944 and John von Neumann's work in 1948 1 , many scientists pondered about information storage and the possible existence of a logical processor within living cells. The discovery of the double-helical structure of DNA in 1953 provided the material basis for these intuitions as it finally revealed how cells store inheritable information in a “digital” format. The recent success of genome transplantation experiments into recipient host cells 2 —akin to transferring software to another computer—further strengthened the hypothesis that living cells can be regarded as Turing Machines, as was suggested by Sydney Brenner 3 (see Sidebar 1 for a glossary and Sidebar 2 for further readings).

… many scientists pondered about information storage and the possible existence of a logical processor within living cells.

François Jacob and Jacques Monod were among the first biologists to understand gene expression as an algorithm.

In light of these and other experimental results that would support the hypothesis that some parts of living systems could be understood as information-processing machines, the Fourmentin-Guilbert Scientific Foundation invited international scholars from the life sciences, computer sciences and physical sciences (see Sidebar 3) to the I2CELL (from Information to Cells) seminar in February 2018 near Oxford, UK, to discuss and identify new research areas. Over 3 days, they debated on a broad range of subjects from computation, information handling, algorithms, robotics and viruses (of the digital and biological varieties) to explore analogies between cells and computers that could inspire new research, while keeping a critical approach to the benefits of similarities. This article summarizes and analyses the presentations and debates.

Biomolecular computation

A crucial question is what does computation mean in the context of living systems? For a start, it means that cells host processes that manipulate symbolic information according to logical rules. The most obvious example is the genetic networks, which have many attributes associated with computing 4 . In fact, the extent of computations that cells and viruses perform seems to be very large. Eukaryotic cells, for example, make a decision of whether or not to divide by performing a “majority voting”-based computation. A similar process takes place during infection of a bacterium by a phage. The decision between lysis (reproduction of the phage to produce new viral particles at the expense of the host cell) and lysogeny (a Trojan horse-like state whereby the phage hides its genome in the host genome) is taken as an unanimous vote of the viral particles in the infected cell. Although this decision—as many other “decisions” of living systems—seems to be a stochastic event, it could be framed in a broader context, thereby yielding to a better understanding of how living systems make decisions if we could reveal the underlying алгоритми.

Formalizing cellular algorithms

François Jacob and Jacques Monod were among the first biologists to understand gene expression as an algorithm 5 . В лак operon they discovered is a genetic system that allows Е. coli cells to switch between lactose and glucose as a food source by executing a subroutine that uses “if–then” conditional statements common to rule-based programming languages. Such observations could be formalized more systematically by exploiting concepts from computer science, helping to answer fundamental questions about how living systems sense, process and react to information.

Computer sciences provide elaborate tools and methods to study and formulate algorithms. В automata model deserves particular attention as living cells can be considered as a material implementation of state machines or as housing such machines that transcribe, translate and replicate the genome (Fig 1). But only a few cellular processes have so far been described as state machines. Stahl and Goheen, for example, use a Turing Machine to model the “algorithmic enzymes” involved in the synthesis of mRNA and proteins 6 . Robert Landick and his colleagues mapped the whole transcription process onto a Turing Machine 7 (see Sidebar 2 for other examples).

Figure 1. Steampunk illustration of a Turing Biomachine by David S. Goodsell (TSRI)

… living cells can be considered as a material implementation of state machines or as housing such machines that transcribe, translate and replicate the genome

During I2CELL, the participants discussed other systems and observations—including, for instance, centrioles that play a crucial role in cell division—that could be analysed so as to classify cellular states and then explore the rules governing transitions between those states. Such approaches place cell biology into a state machine framework and, more generally, demonstrate that living systems could indeed be understood and analysed as housing information-processing devices.

Sidebar 1: Glossary

A description of a method to solve a problem in terms of elementary, precise operations. When expressed in a particular language, the algorithm is called a program. Cellular processes to make macromolecules are algorithmic in the form “begin, do: [if Condition then Action, check Control Points, repeat], end”.

Abstract models of machines to perform computations from an input by moving through a series of intermediate states. When an automaton sees a symbol as input, it changes to another state according to an instruction (given by a transition function). The stored-program computer and the living cell are two concrete realizations of an automaton.

An abstract machine with a virtual head to read and write symbols structured in words (sequences) from an infinite tape, focusing on one symbol at a time. A ribosome translating the information from a messenger RNA into a protein can be described as a Turing Machine, with striking physical similarity.

There is a whole hierarchy of state machines. The simplest one is a Finite State Machine (FSM) or Finite State Automaton (FSA). It has a finite number of states with an initial state, and transitions triggered by conditions (inputs). Apart from the states reflecting its current situation, the FSM has no mechanism for remembering past operations. Going up the hierarchy ladder, more sophisticated state machines are augmented with an increasingly versatile storage facility. The Turing Machine is on top with no restriction on its number of states. The information treated by a FSM resides in its states and its inputs. In the case of a Turing Machine, the information is also stored as symbols on the tape.

James Clerk Maxwell originally conceived his thought experiment as a hypothetical being able to capture information about a system, thus reducing entropy, apparently against the standard laws of thermodynamics. Later on, his demon was “exorcised” when theoretical works suggested that it cannot use the information gained on the system without memorizing it and that the erasure of this information to reset the measurement device comes at an energetic cost, so as to preserve the laws of physics. Today, physicists and chemists try to prove the physical dimension of information by quantifying the relationship between information and energy—as did Einstein by unifying matter and energy—and try to implement concrete information-driven devices.

Genome transplantation

Experimental approach that consists of replacing entirely the genetic program of a bacterial cell by a synthetic new genetic program. The fact that the cells readily express the new chromosome, in the case of Mycoplasma 2 , shows that the genetic program is separated from the cellular machine like in a computer and comes up as another proof of concept of the cell as a Turing Machine. Like in a computer, in which a program does not run if it is not properly recognized by the machine, one cannot expect any genome transplantation to be productive.

The proper functioning of protein synthesis depends on the ability of the ribosome to decode the messenger RNA with high fidelity. When a ribosome incorporates amino acids in a ratchet-like manner, it selects one wrong amino acid in 10,000. It achieves this low error rate thanks to specific proteins that, acting like Maxwell's demon, test (proofread) if the amino acid presented to the ribosome is the correct one.

Information storage, interpretation and measurement

Information storage is a key component of a Turing Machine or state machine. While DNA is a long-term memory to store and transmit information over generations, short-term memories also exist within the cell. The Turing Machine formalism suggests that proteins and RNA may act as a transient memory, together with other epigenetic information that is not coded in genes. The information contained in computer programs is subject to successive interpretations and translations from higher-level abstractions down to hardware instructions. In a living cell, similar computational processes can be observed at different levels of abstraction ranging from phenotype through genetic programs down to the underlying molecular interactions 8 .

The Turing Machine formalism suggests that proteins and RNA may act as transient memory, together with other epigenetic information that is not coded in genes.

Further analogies might be useful to understand information handling in cells. In particular, the existence of a biological counterpart to Maxwell's demon-like mechanisms could help to explain important observations in biology such as asymmetric cell division. Here, most of the damaged and old molecular components remain in the “mother” cell while the “daughter” receives the “younger” proteins and organelles. How does the cell achieve such asymmetry during division? One hypothesis suggests that proteins are filtered by Maxwell's demons that measure the state of encountered components—damaged or aged for instance—memorize this information, produce an action accordingly and reset their memory. Kinetic proofreading, which is an important mechanism to prevent errors during protein synthesis, can be also viewed as a process akin to Maxwell's demon. Such arguments would stress the important role of the concept of information as a measurable quantity.

Sidebar 2: Further reading

For a deeper understanding of how historically analogies between living cells and computers have been made, see videos by Sydney Brenner:

  • Benenson Y (2012) Biomolecular computing systems: principles, progress and potential. Nat Rev Genetics 13: 455–468
  • Navlakha S, Bar-Joseph Z (2011) Algorithms in nature: the convergence of systems biology and computational thinking. Mol Syst Biol 7: 546
  • Cardelli L, Hernansaiz-Ballesteros RD, Dalchau N, Csikasz-Nagy A (2017) Efficient switches in biology and computer science. Plos Comput Biol 13: e1005100
  • Zeng L, Skinner SO, Zong C, Sippy J, Feiss M, Golding I (2010) Decision making at a subcellular level determines the outcome of bacteriophage infection. клетка 141: 682–691
  • Serreli V, Lee CF, Kay ER, Leigh DA (2007) A molecular information ratchet. природата 445: 523–527
  • Lutz E, Ciliberto S (2015) Information: from Maxwell's demon to Landauer's eraser. Физика днес 68: 30
  • Binder P, Danchin A (2011) Life's demons: information and order in biology. What subcellular machines gather and process the information necessary to sustain life? EMBO Reports 12: 495–499
  • Bryant B (2012) Chromatin computation. PLoS One 7: e35703
  • Lan G, Tu Y (2016) Information processing in bacteria: memory, computation, and statistical physics: a key issues review. Reports on progress in physics. Physical Society 79: 052601
  • Bar-Ziv R, Tlusty T, Libchaber A (2002) Protein-DNA computation by stochastic assembly cascade. Proc Natl Acad Sci U S A 99: 11589–11592
  • Eiben AE, Smith, JE (2003) Introduction to evolutionary computing. Berlin: Springer
  • Eiben AE, Smith, JE (2015) From evolutionary computation to the evolution of things. природата 521: 476–482

Beyond the concepts: how far can we draw an analogy between a living cell and a computer?

The architecture and programming of man-made computers should stimulate new questions for biologists: if the analogy holds, what does the cellular hardware do? How can we dissect biological functions from metabolic pathways to complex behaviours into their essential parts? For historical reasons, molecular biology has relied on a bottom-up approach from gene to protein and to function. Instead, a top-down approach or functional analysis 9 to identify and formulate the master functions of life and their underlying secondary functions, and then the objects associated with them, could provide a broader understanding of the essential processes in cells. Thus, current research on creating a genome coding for a “minimal set of functions” rather than a minimal set of genes could help to identify the still unknown functions of many essential genes.

Most computers run an Operating System (OS) with a reduced set of instructions that provides a common interface between hardware resources and applications. While the genome is a true program in the sense that it contains instructions and data, it is not clear yet whether there is also a cellular OS. Nevertheless, the metaphor could help to identify some of the homeostatic functions within a cell that would be part of a minimal genome.

Another analogy between computers and cells is suggested by genome transplantation experiments by which a recipient host cell's genome is replaced by a synthetic genome assembled exogenously. Beyond the essential compatibility of the transcription and translation machinery to “read” the new genome, it might need additional “boot programs” in order to restart the regulatory and metabolic functions encoded in the new genome and the host cell.

Like living systems, computers age more precisely, transistors, the elementary building blocks of electronic circuits, age. This ageing decreases the switching speed over time and thereby overall performance. Processors and memory circuits are therefore equipped with components that monitor transistor performance and progressively slow down the speed of computing to increase their lifespan. Do similar controls exist in cells that monitor the age of cellular components and adjust the speed of biological processors (RNA polymerases, ribosomes)? It might be valuable, when searching for biological Maxwell's demons, to identify protein networks that measure the intrinsic ageing of proteins—which manifests through chemical alterations—and that slow down the speed of transcription and translation to increase the cell's lifespan or that eventually trigger apoptosis or senescence to discard of or silence an aged cell. If it turns out that biological Maxwell's demons are central for renovating the cellular protein synthesis machinery or to synthesize a young cell, it would allow biologists to revisit ageing theories accordingly.

Finally, robotics is also exploiting concepts from nature and evolution to develop self-evolving non-organic systems with the ability to explore, sense and process information about their environment. Though this work is at early stages, robots should eventually become capable of autonomous evolution to adapt their functions and programming to their environment. Robots are already able to learn, sometimes from scratch, to improve their movement for instance, or to adapt their capabilities in case of degradation. Overall, there is a rich history of evolutionary computation and robotics that borrows ideas and inspiration from biology to design new machinery and software 10 .

Sidebar 3: I2CELL participants and topics

Hugo Aguilaniu, Instituto Serrapilheira, Brasil

David Bikard, Institut Pasteur, France

Holger Breithaupt, EMBO, Germany

Anne Condon, University of British Columbia, Canada (in charge of the daily summaries)

Antoine Danchin, Institute of Cardiometabolism and Nutrition, Hôpital de la Pitié-Salpêtrière, France

Gilles Dowek, Inria/ENS Cachan, France

Agosto Eiben, Vrije Universiteit Amsterdam, The Netherlands

Eric Fourmentin, Fourmentin-Guilbert Scientific Foundation, France (organizer)

John Glass, J. Craig Venter Institute, USA

Ido Golding, Baylor College of Medicine, USA

Philipp Holliger, MRC, Cambridge University, UK

Paul Jardine, University of Minnesota, USA

Hélène Kirchner, Inria, France (organizer)

Damien Larivière, Fourmentin-Guilbert Scientific Foundation, France (organizer)

Carole Lartigue, Inra, France

Albert Libchaber, The Rockefeller University, USA

Jean-Yves Marion, IUF and Lorraine University, France

Wallace Marshall, UCSF, USA (in charge of the daily summaries)

Anthony Maxwell, John Innes Center, UK

Jean-Baptiste Mouret, Inria, France

Vincent Noireaux, University of Minnesota, USA (organizer)

Jordan Pollack, Brandeis University, USA

Olivier Sentieys, Inria/University of Rennes, France

Tsvi Tlusty, UNIST, Korea (in charge of the daily summaries)

Christoph Zechner, Max Planck Institute of Molecular Cell Biology and Genetics, Germany

  • Session 1: Cells as Turing Machines?
  • Session 2: Algorithm-driven cellular processes
  • Session 3: Where Operating System-like functions could be found?
  • Session 4: How far are we from making a self-replicating and self-reproducing machine?
  • Session 5: How to contain virus?

Заключение

While cells and computers are made of very different materials—carbon versus silicon—both are nonetheless information-processing systems. The living world has for long been a source of inspiration for computer scientists and has led to the development of neural networks, evolutionary algorithms or self-learning systems. Many insights from living systems are still to be explored, for example to decrease the energetic cost of computation, to make artificial systems more autonomous, to design a computer immune system or to allow computers to benefit from viral infection.

Vice versa, there is also a lot to gain for biologists from ideas and concepts in computer science. Synthetic biology in particular is already benefiting in its attempts to create artificial cells designed to perform a particular task. While synthetic biology has a large inventory of available “parts”– metabolic and regulatory genes that can be combined into circuits—and the software program, that is the genome, can be tailored to specifications, it still remains impossible to bootstrap a cell from a set of molecules. Like computers, living cells are synthesized by algorithmic machines based on a construction scheme. Computer sciences could help to identify key characteristics of such processes and therefore allow biologists to better understand how the machinery of the cell evolved.

There is a lot to gain for biologists from ideas and concepts in computer science.

The Fourmentin-Guilbert Scientific Foundation has created the I2CELL Seed Award to emphasize the importance of this interdisciplinary field and to stimulate experimentally relevant ideas that exploit the concept of information in biology (www.i2cell.science).


A mathematical theory proposed by Alan Turing in 1952 can explain the formation of fingers

Like strips and dots in many animals, fingers can be considered as patterns that can be predicted by the Turing model. Credit: Luciano Marcon and Jelena Raspopovic

Alan Turing, the British mathematician (1912-1954), is famous for a number of breakthroughs, which altered the course of the 20th century. In 1936 he published a paper, which laid the foundation of computer science, providing the first formal concept of a computer algorithm. He next played a pivotal role in the Second World War, designing the machines which cracked the German military codes, enabling the Allies to defeat the Nazis in several crucial battles. And in the late 1940's he turned his attention to artificial intelligence and proposed a challenge, now called the Turing test, which is still important to the field today.

His contribution to mathematical biology is less famous, but was no less profound. He published just one paper (1952), but it triggered a whole new field of mathematical enquiry into pattern formation. He discovered that a system with just 2 molecules could, at least in theory, create spotty or stripy patterns if they diffused and chemically interacted in just the right way.

His mathematical equations showed that starting from uniform condition (ie. a homogeneous distribution – no pattern) they could spontaneously self-organise their concentrations into a repetitive spatial pattern. This theory has come to be accepted as an explanation of fairly simple patterns such as zebra stripes and even the ridges on sand dunes, but in embryology it has been resisted for decades as an explanation of how structures such as fingers are formed.

Now a group of researchers from the Multicellular Systems Biology lab at the CRG, led by ICREA Research Professor James Sharpe, has provided the long sought-for data which confirms that the fingers and toes are patterned by a Turing mechanism. "It complements their recent paper (наука 338:1476, 2012), which provided evidence that Hox genes and FGF signaling modulated a hypothetical Turing system. However, at that point the Turing molecules themselves were still not identified, and so this remained as the critical unsolved piece of the puzzle. The new study completes the picture, by revealing which signaling molecules act as the Turing system" says James Sharpe, co-author of the study.

The approach taken was that of systems biology – combining experimental work with computational modelling. In this way, the two equal-first authors of the paper were able to iterate between the empirical and the theoretical: the lab-work of Jelena Raspopovic providing experimental data for the model, and the computer simulations of Luciano Marcon making predictions to be tested back in the lab.

This is the detailed embryo limb and the network topology of the Bmp-Sox9-Wnt (BSW) model. Credit: Luciano Marcon and Jelena Raspopovic.

By screening for the expression of many different genes, they found that two signalling pathways stood out as having the required activity patterns: BMPs and WNTs. They gradually constructed the minimal possible mathematical model compatible with all the data, and found that the two signalling pathways were linked through a non-diffusible molecule – the transcription factor Sox9. Finally, they were able to make computational predictions about the effects of inhibiting these 2 pathways – either individually, or in combination – which predicted how the pattern of fingers should change. Strikingly, when the same experiments were done on small pieces of limb bud tissue cultured in a petri dish the same alterations in embryonic finger pattern were observed, confirming the computational prediction.

This result answers a long-standing question in the field, but it has consequences that go beyond the development of fingers. It addresses a more general debate about how the millions of cells in our bodies are able to dynamically arrange themselves into the correct 3D structures, for example in our kidneys, hearts and other organs. It challenges the dominance of an important traditional idea called positional information, proposed by Lewis Wolpert which states that cells know what to do because they all receive information about their "coordinates" in space (a bit like longitude and latitude on a world map). Today's publication highlights instead that local self-organising mechanisms may be much more important in organogenesis than previously thought.

Arriving at the correct understanding of multicellular organization is essential if we are to develop effective strategies for regenerative medicine, and one day to possibly engineer replacement tissues for various organs. In the shorter term, these results also explain why polydactyly – the development of extra fingers or toes – is such a common birth defect in humans: Turing systems are mathematically known to have slightly lower precision in regulating the number of "stripes" than alternative models.

At first glance, the question of how an embryo develops seems unrelated to the problems of computing and algorithms with which Turing is more commonly associated. In reality however, they were both expressions of his interest in how complex and clever biological "machines" arise in nature. In a sense, he sought the algorithms by which life builds itself. It is fitting that this study, which has confirmed Turing's 62 year-old theory on embryology, required the development of a serious computer model. It brings together two of his major life achievements into one satisfying result.


Parallel thinking

The computer seems to be the only commodity ever to become exponentially better as it gets cheaper. Its information handling capacity has grown at a rate ten million times faster than that of our nervous systems during the four billion years since life began on Earth. Yet the theory and technology of computing has rested for more than 50 years on the Turing-machine model of computation, which leads to many intractable or undecidable problems. Има ли алтернативи? This was the question addressed at a conference in January Footnote 1 , where three new models of computation were discussed: the DNA model, the quantum model and the reversible model.

DNA has a potentially gigantic memory capacity (in reasonable concentrations, a litre of DNA solution can store up to 10 22 bits of information), and biochemical operations are massively parallel. So DNA has a built-in computational power. The familiar double helix of DNA arises by the bonding of two separate polymer chains, composed of the four DNA bases A, G, C and T. These obey the Watson-Crick complementarity rule: A bonds with T and C bonds with G. This restriction means that one DNA chain can pair with another chain only when their sequences of bases are complementary. Thus, fundamental information is available for free: knowing one member of a bond means automatically knowing the other.

The startling thing is that complementarity yields universality, in the Turing sense (A. Salomaa, Turku Univ.). Consider the set of all possible words (sequences) that can be obtained from two given words by shuffling them without changing the order of letters. For instance, shuffling AG and TC we get AGTC, ATCG, TCAG and TAGC. Then collect all shufflings of all pairs of complementary words into the so-called twin-shuffle language. There is a simple way to go from a DNA double strand to a word in the twin-shuffle language and back. Universality follows from the fact that any Turing computation can be performed by using an appropriate finite automaton to filter the (fixed) twin-shuffle language. So DNA computers could in theory perform any operation that digital computers can.

It is a long way from theory to implementation, however. Biochemical operations are slow and prone to errors. The extraction of DNA strands containing a particular sequence is far from certain. Physical constraints, such as volume (performing the computation within a practical volume of DNA), time (some operations can take up to 100 minutes, at present) and energy (operations such as denaturing and annealing require heating or cooling) are difficult to control. But a new cloning readout procedure that overcomes some of these problems was described at the meeting. Using bacteriophage DNA rather than synthesized DNA to carry encoded solutions, operations such as removal, restriction and sorting can be performed by gel electrophoresis, and the result can be obtained in an error-resistant way by picking individual clones and sequencing their DNA (M. Amos, Liverpool Univ.).

Computers, in contrast to Turing machines, are physical devices: whatever they can or cannot do is determined by the laws of physics. Quantum effects, such as interference and entanglement, are especially important, because in the race for miniaturization, computers will inevitably use circuits approaching the level of atoms and photons. There are also certain algorithms that, in principle, can be solved by a quantum computer much more quickly than by a conventional one.

Not all quantum effects may be needed. Nonlinearity (to support quantum logic and ensure universality) and coherence (for the manipulation of coherent quantum superpositions) are necessary and, in principle, sufficient conditions for computation. Conventional devices under investigation for carrying out these operations include ion traps, high-finesse cavities for manipulating light and atoms using quantum electrodynamics, and molecular systems designed to compute using nuclear magnetic resonance. These last store quantum information in the states of quantum systems such as photons, atoms or nuclei, and realize quantum logic by semiclassical potentials such as microwave or laser fields. Unconventional ideas for quantum computation include fermionic quantum computers, bosonic computers (which use a Bose-Einstein condensate of photons, phonons or atoms), and architectures relying on anyons (whose nonlocal topological nature makes them intrinsically error-correcting and virtually immune to noise and interference).

The third strand of the meeting was reversibility. An operation is reversible if it can be undone it is simply determinism looking backwards in time. Conventional computers are irreversible, and constantly discard information about their states. This limits their efficiency, as it increases the energy required to perform computations and involves the dissipation of heat. But since the laws of physics are reversible at a microscopic level (a given microstate can only be reached by a single path), it follows that irreversible operations and the accompanying production of entropy are in principle not necessary. In practice, reversible computations are likely to dissipate far less energy — but avoiding all entropy production may hurt other measures of performance, such as speed.

The world's first fully reversible universal computer was presented at the meeting (T. Knight, MIT). Working with a parallel architecture (Fig. 1), the machine can perform any computation using arbitrarily little energy per operation (ignoring leakage and powersupply issues). Even with actual leakage factors taken into consideration, the machine operates with less than one-thousandth of the energy per operation of a conventional circuit implementing the same computational model.

It is based on the billiard-ball cellular automaton, in which logic values are modelled by the presence or absence of ‘billiard balls’ moving along paths in a grid. This scheme has now been realized, using a split-level charge-recovery logic circuit.

Although all these techniques are becoming more tractable, there is still no sign of any way to break the Turing barrier. Which computational route holds the most promise for the future? In spite of profound differences — in philosophy, methodology, resources — all face a number of similar problems. How should we efficiently encode the data? What architecture should we choose? How is the architecture initially programmed? Can the architecture reconfigure itself? How should we modify the presently known algorithms to fit the new architecture? How should we efficiently read the output?

So it is a matter of some debate whether any of these models will ever leave the lab. But they have helped draw together the disciplines of computing, mathematics, physics, engineering and biology, and already produced new insight. For instance, new ideas have arisen about the evolution of genes and DNA sequences (that life may be seen as a series of complex computations) and in the field of quantum communication and solutions have been obtained to old problems (for example, the negative solution to Maxwell's demon problem (S. Lloyd, MIT): a perfectly efficient engine is impossible not only for mortals, but even in principle). The real issue might not be the final destination, but the journey, and the understanding of natural phenomena that will necessarily occur along the way.


Junk DNA might be really, really useful for biocomputing

IMAGE: Simple repeats form novel DNA structures that change how DNA is read out. They are called flipons and act as ON-OFF switches for compiling genetic programs. The messages produced carry.

Dr. Herbert asks what if our genome was far smarter than everyone previously believed? What if in the many DNA repeat elements lay the foundation for building a novel type of biocomputer? This approach would enable calculations performed with self-renewing wetware rather than stone-cold hardware, opening the door to logic circuits based on DNA that flips from one state to another, analogous to the way silicon switches "on" and "off".

How might this kind of DNA computer work? Simple repeats are called that because the DNA sequence repeats itself over and over again a number of times. The repeats actually are great for building DNA structures with useful properties. Instead of the everyday B-DNA described by Watson and Crick, repeats of certain DNA sequences can morph into some rather exotic higher-energy 3D structures. They can form left-handed duplexes, three-stranded triplexes, and four-stranded quadruplexes. The different DNA structures change how information is read out from DNA to make RNA.

Those repeat sequences that are able to switch from one DNA structure to another are called flipons. Collectively, Dr. Herbert refer to these flipons and their associated functionality as fliponware. Fliponware sets the stage for a cell to make the right wetware tools and run the right genetic program to get the job at hand done. It allows assembly of gene pieces into different RNA-based programs for a cell to overcome challenges from its environment.

Dr. Herbert provides examples of how flipons can be used to create genetic programs, describing ways they can be wired into the logic gates that computers need to function. The flipon logic gates can perform 'AND' or 'NOT' operations. Many can be combined to perform the Boolean operations essential to a universal computer as first described by Turing. Their use in the genome for logical operations resembles how Turing machines work, but instead of a Turing tape, the cell uses RNA to record the results. The series of processing steps decides whether the RNA message is stable or not and the genetic program to execute.

Many of the novel RNA assemblies are trashed without ever being used--they may not be needed or their assembly is defective (equivalent to a FALSE result from a Turing machine). Those messages that persist become the codonware of the cell (logically the same as a TRUE result from a Turing machine). The codonware that results then defines the cell's biology by the wetware they direct the production of..

This form of computation differs from previously described DNA computers built without flipons. These other devices depend on whether or not pairs of DNA sequences match each other. If they do, the matches enable the next calculation step. Flipon computers differ in many ways from those using DNA matching. First, some flipons switch very fast (in milliseconds) because all they need to do is change from one 3D structure to another without the need to search for a matching DNA to pair with. Turning a flipon ON or OFF is possible in many different ways. For example, just stretching the DNA can cause flipons to morph, or they can flip due to a change in temperature or variations in salt concentration.

The combination of fliponware, wetware and codonware is analogous to program code, machine language and hardware in a silicon computer. Each of these bioware sets has memory to enable learning. They use error correction to prevent bad outcomes. While flipons are made with simple sequences, codonware is made from complex sequence mixes. The information provides the cell very detailed information on the wetware to make. In simple terms, fliponware instructs which tools to use for a particular job, codonware tells how to make the tools, and wetware does the job.

Dr. Herbert adds, "I expect that soon there will be many exciting and beneficial applications for fliponware. Simple sequences are not your grandparent's junk--instead they are like the rules of thumb that simplify life, acquired over many years of evolution."

Fliponware has several immediate applications:

1. Therapeutic applications (target drugs to flipon states that enable cancers or inflammatory diseases)
2. Biosensors (to detect environmental changes)
3. Persistent DNA memory (exploiting the extreme stability of quadruplexes after they form)
4. Cellular switches (change of output in response to a change of input)
5. Novel DNA nano-architectures (the 3D structure formed depends on flipon state)


Гледай видеото: Kato NK-800S 1984 (Февруари 2023).