Eliminasi Gaussian dalam hal Aksi Kelompok

13

Eliminasi gaussian menentukan determinan matrik polinomial-waktu. Pengurangan kompleksitas dalam menghitung determinan, yang merupakan penjumlahan dari istilah eksponensial, adalah karena adanya tanda-tanda negatif alternatif (kurangnya yang membuat komputasi permanen adalah mis. Lebih sulit daripada masalah N P - C ) . Ini mengarah pada semacam simetri dalam determinan, misalnya pertukaran sepasang baris atau kolom hanya membalikkan tanda-tanda. Saya membaca di suatu tempat, mungkin sehubungan dengan algoritma holografik yang diperkenalkan oleh Valiant, bahwa eliminasi Gaussian dapat dijelaskan dalam hal aksi kelompok dan ini pada gilirannya mengarah pada teknik generik dalam pengurangan kompleksitas.#P-hardNP-C

Juga, saya merasa bahwa hampir semua sumber pengurangan kompleksitas untuk masalah komputasi adalah semacam simetri. Apakah itu benar Bisakah kita dengan keras memformalkan ini dalam teori kelompok?

Edit

Saya menemukan referensi . (hal 2, baris terakhir dari paragraf kedua). Saya tidak memahami makalah dengan benar, Jika pertanyaan saya didasarkan pada pemahaman yang salah tentang makalah, mohon koreksi saya.

DurgaDatta
sumber
3
Pribadi saya mengambil paragraf kedua: Masalah yang menarik sering memiliki simetri, apakah mereka memiliki algoritma yang efisien atau tidak. Tapi selain itu, saya tidak melihat kebenaran dalam perasaan Anda bahwa "hampir semua sumber pengurangan kompleksitas untuk masalah komputasi adalah semacam simetri yang ada." Sebagai contoh, saya gagal melihat apa yang menggunakan algoritma simetri Kruskal. Selain itu, pandangan bahwa algoritma yang efisien muncul dari simetri dalam masalah tampaknya tidak menjelaskan mengapa simetri permanen tampaknya tidak membantu menghitungnya secara efisien.
Tsuyoshi Ito
4
Tidak, simetri tidak selalu menurunkan kompleksitas. Setiap pertanyaan menarik tentang grup tidak dapat diputuskan. Penyortiran tidak.
Jeffε
2
pernyataan formal terdekat dalam arah ini yang muncul dalam pikiran adalah dugaan dikotomi aljabar, yang (secara samar-samar) menyatakan bahwa CSP ada dalam P jika dan hanya jika ada cara nontrivial untuk menggabungkan dua solusi ke dalam solusi ketiga yang benar-benar berbeda . satu contoh adalah memecahkan sistem linear mod 2, yang dapat dipecahkan dengan eliminasi gaussian, dan di mana dua solusi berbeda menentukan subruang afin dari solusi
Sasho Nikolov
2
ah jadi apa yang sebenarnya Anda bicarakan adalah GCT, yang dimulai dari gagasan bahwa masalah permanen vs penentu dapat dipahami dalam hal (secara kasar) simetri di mana kedua fungsi tersebut tidak berubah.
Sasho Nikolov
2
Ada banyak alasan mengapa masalah mengakui algoritma yang efisien. Convexity, sub-modularity, dll. Simetri menyebabkan ledakan kasus pada beberapa masalah kombinatorial dan kadang-kadang dipandang sebagai sumber inefisiensi.
Vijay D

Jawaban:

12

Dalam kasus determinan, eliminasi Gaussian memang dapat dilihat setara dengan gagasan bahwa determinan memiliki kelompok simetri yang besar (dari bentuk tertentu) dan ditandai oleh kelompok simetri tersebut (artinya derajat homogen lain polinomial dalam n 2 variabel dengan simetri tersebut harus merupakan kelipatan skalar dari determinan). (Dan, mengenai poin @Tsuyoshi Ito bahwa simetri permanen tampaknya tidak membantu menghitungnya secara efisien: meskipun permanen juga ditandai oleh simetrinya, grup simetrinya jauh lebih kecil daripada determinannya.)nn2

Anda dapat menemukan tulisan tentang ini - di mana simetri determinan digunakan untuk melakukan eliminasi Gaussian, di sepanjang jalan membuktikan bahwa determinan ditandai oleh simetrinya - dalam Proposisi 3.4.3 dari tesis saya (plug sendiri yang tidak tahu malu - tetapi juga, saya belum pernah melihatnya diutarakan dengan cara ini sebelumnya dan ditulis dengan detail penuh, seperti yang diminta OP, meskipun saya yakin itu sudah selesai; Saya akan senang jika seseorang memiliki referensi lain).

Mengenai gagasan bahwa simetri selalu mengarah pada pengurangan kompleksitas (atau tidak), di samping hal-hal yang sudah ada dalam komentar, lihat pertanyaan ini dan jawabannya.

Suatu hal yang menarik adalah bahwa dalam makalah Valiant pertama tentang apa yang sekarang dikenal sebagai versi Valiant tentang teori kompleksitas aljabar, ia mencoba untuk membuat titik bahwa salah satu alasan penentu adalah penting secara komputasi adalah karena secara kasar semua (maka) algoritma efisien yang diketahui bisa menjadi direduksi menjadi aljabar linier dan dari situ ke perhitungan determinan, misalnya algoritma FKT untuk menghitung kecocokan dalam grafik planar. Ini tentu saja berlebihan, tetapi terus dilakukan melalui penelitian ke dalam algoritma holografik, yang sering kali dikurangi untuk menghitung Pfaffian (kerabat dekat dari penentu). Tentunya Valiant tahu ini berlebihan, tapi inilah kutipan yang tepat hanya untuk memastikan saya tidak salah mengartikan ( L. Valiant. Kelengkapan kelas dalam aljabar. ACM STOC 1979 ):

Kesimpulan utama kami dapat diringkas secara kasar sebagai berikut:

(a) Aljabar linier pada dasarnya menawarkan satu-satunya teknik cepat untuk menghitung polinomial multivariat dengan derajat sedang

(b) ...

Joshua Grochow
sumber
7

Ada kasus di mana simetri masalah (tampaknya) mencirikan kompleksitasnya. Salah satu contoh yang sangat menarik adalah kendala kepuasan masalah (CSP).

Definisi CSP

UΓkUk{0,1}VΓϕ:VU

Misalnya, dalam bahasa ini 3-SAT diberikan oleh Γ yang merupakan himpunan semua disjungsi dari 3 literal, U adalah secara sederhana {0,1}. Untuk contoh lain, sistem persamaan linear mod 2 diberikan oleh aΓ yang semuanya persamaan linear mod 2 dengan k variabel, dan U lagi {0,1}.

Polimorfisme

Ada perasaan kekerasan CSP ditandai dengan simetri. Simetri yang dimaksud disebut polimorfisme. Sebuah polimorfisme adalah cara untuk lokal menggabungkan beberapa solusi untuk CSP untuk mendapatkan solusi baru. Secara lokal di sini berarti ada fungsi yang diterapkan ke masing-masing variabel secara terpisah. Lebih tepatnya, jika Anda memiliki beberapa solusi (tugas yang memuaskan)ϕ1,...,ϕt, polimorfisme adalah suatu fungsi f:UtU yang bisa diterapkan ke setiap variabel untuk mendapatkan solusi baru ϕ: ϕ(v)=f(ϕ1(v),,ϕt(v)). For f to be a polymorphism it should map all tuples of t satisfying assignments to any instance to a satisfying assignment of the same instance.

A polymorphism for systems of linear equations for example is f(x,y,z)=x+y+z(mod2). Notice that f(x,x,y)=f(y,x,x)=y. An f that satisfies this property is known as a Maltsev operation. CSPs that have a Maltsev polymorphism are solvable by Gaussian elimination.

On the other hand, disjunctions of 3 literals only have dictators as polymorphisms, i.e. functions of the type f(x,y)=x.

Polymorphisms and Complexity (the dichotomy conjecture)

Polymorphisms in fact have computational implications: if a CSP Γ1 admits all polymorphisms of Γ2, then Γ1 is polynomial-time reducible to Γ2. This is a way to formally say that a CSP Γ2 which is "less symmetric" than another CSP Γ1 is in fact harder.

A major open problem in complexity theory is to characterize the hardness of CSPs. The dichotomy conjecture of Feder and Vardi states that any CSP is either in P or NP-complete. The conjecture can be reduced to a statement about polymorphisms: a CSP is NP-hard if and only if the only polymorphisms it admits are "dictators" (otherwise it is in P). I.e. a CSP is hard only if there is no local way to form genuine new solutions from old solutions. The if part (hardness) is known, but the only if part (designing a polytime algorithm) is open.

However, an important case where we do have a dichotomy is boolean CSPs (where U={0,1}). According to Schaefer's theorem, a boolean CSP is in P if it admits one of 6 polymorphisms, otherwise it is NP-complete. The six polymorphisms are basically what you need to solve the problem either by gaussian elimination or by propagation (as you do with horn-sat for example), or to solve it by a trivial assignment.

To read more about polymorphisms, universal algebra, and the dichotomy conjecture, you can look at the survey by Bulatov.

Polymorphisms and Approximability

I also recommend an IAS lecture by Prasad Raghavendra where he puts his result giving optimal approximability of any CSP assuming the unique games conjecture in a similar framework. On a high level, if all polymorphisms (this needs to be generalized to handle approximation problems) of a CSP are close to dictators, one can use the CSP to design a way to test if a function is a dictator, and that turns out to be all you need in order to give a hardness of approximation reduction from unique games. This gives the hardness direction of his result; the algorithmic direction is that when a CSP has a polymorphism which is far from a dictator, one can use an invariance principle (generalization of central limit theorems) to argue that an SDP rounding algorithm gives a good approximation. A really sketchy intuition for the algorithmic part: a polymorphism that is far from a dictator doesn't care if it is given as arguments (a distribution over) variable assignments or gaussian random variables that locally approximate a distribution over variable assignments. This is the same way that a sum function "doesn't care" if it is given discrete random variables with small variance or gaussian r.v.'s with the same variance, by the central limit theorem. The gaussian random variables we need can be computed from an SDP relaxation of the CSP problem. So we find a polymorphism that is far from a dictator, feed it the gaussian samples, and get a good solution back.

Sasho Nikolov
sumber
2
Bulatov also gave an invited talk about his survey at CSR 2011.
Tyson Williams